TRM Labs identificó nueve nuevos grupos de ransomware que utilizan extensivamente la IA para estafar a sus víctimas.
Resumen
TRM Labs examinó cómo nueve grupos de ransomware emergentes aprovechan la IA
La IA permite a los grupos de ransomware escalar masivamente sus operaciones.
Los grupos utilizan herramientas de IA para automatizar ataques de ingeniería social, que están en aumento
Desde que surgieron las últimas herramientas de IA, los estafadores las han estado utilizando en sus ataques. El lunes 6 de octubre, la plataforma de análisis de blockchain TRM Labs publicó un informe sobre nueve grupos de ransomware emergentes y cómo aprovechan la IA.
Estos grupos incluyen Arkana Security, Dire Wolf, Frag y Sarcoma, entre otros, que despliegan diferentes tácticas y tienen como objetivo a diferentes víctimas. Sin embargo, lo que tienen en común es el uso creciente de la IA en sus operaciones de ransomware.
Cómo los grupos de ransomware utilizan la IA en estafas
El informe señaló que la IA se está convirtiendo en una parte integral de las operaciones de ransomware. Notablemente, permite a estos grupos escalar masivamente sus actividades. Además, esta tecnología está habilitando nuevos tipos de tácticas, especialmente aquellas que explotan el elemento humano de la seguridad.
Esto se aplica específicamente a las estafas de ingeniería social, que solían ser intensivas en tiempo y requerían una investigación y preparación extensas. Ahora, los atacantes de ransomware pueden aprovechar la IA para escribir mensajes y crear videos deepfake que son cada vez más creíbles.
Los estafadores también utilizan modelos de lenguaje grandes (LLMs) para automatizar la generación de código, reduciendo la barrera de entrada para los atacantes. La IA también permite la creación de malware polimórfico, que cambia con cada infección, lo que dificulta mucho la detección.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
6
Republicar
Compartir
Comentar
0/400
fren.eth
· hace9h
No me esperaba que la IA fuera tan descarada.
Ver originalesResponder0
Tokenomics911
· hace9h
No esperaba que la IA también empezara a hacer esto.
Ver originalesResponder0
MintMaster
· hace9h
Esta forma de hacer dinero es realmente novedosa.
Ver originalesResponder0
PumpDetector
· hace9h
jajaja, el verdadero ransomware siempre fue la exageración de la IA, sacudiendo la cabeza
El ransomware de IA está en aumento a medida que los atacantes escalan: Informe
TRM Labs identificó nueve nuevos grupos de ransomware que utilizan extensivamente la IA para estafar a sus víctimas.
Resumen
Desde que surgieron las últimas herramientas de IA, los estafadores las han estado utilizando en sus ataques. El lunes 6 de octubre, la plataforma de análisis de blockchain TRM Labs publicó un informe sobre nueve grupos de ransomware emergentes y cómo aprovechan la IA.
Estos grupos incluyen Arkana Security, Dire Wolf, Frag y Sarcoma, entre otros, que despliegan diferentes tácticas y tienen como objetivo a diferentes víctimas. Sin embargo, lo que tienen en común es el uso creciente de la IA en sus operaciones de ransomware.
Cómo los grupos de ransomware utilizan la IA en estafas
El informe señaló que la IA se está convirtiendo en una parte integral de las operaciones de ransomware. Notablemente, permite a estos grupos escalar masivamente sus actividades. Además, esta tecnología está habilitando nuevos tipos de tácticas, especialmente aquellas que explotan el elemento humano de la seguridad.
Esto se aplica específicamente a las estafas de ingeniería social, que solían ser intensivas en tiempo y requerían una investigación y preparación extensas. Ahora, los atacantes de ransomware pueden aprovechar la IA para escribir mensajes y crear videos deepfake que son cada vez más creíbles.
Los estafadores también utilizan modelos de lenguaje grandes (LLMs) para automatizar la generación de código, reduciendo la barrera de entrada para los atacantes. La IA también permite la creación de malware polimórfico, que cambia con cada infección, lo que dificulta mucho la detección.