Los hackers rusos están aprovechando la ola de imágenes desnudas generadas por IA para difundir malware. La firma de seguridad Silent Push detectó al notorio grupo FIN7 detrás de al menos siete sitios web falsos de "generador de IA Deepnude". Estos sitios prometen crear imágenes desnudas a partir de fotos normales de mujeres. Cosas bastante sospechosas.
Los usuarios son engañados. Descargan archivos. Se instala malware. Algunos sitios ofrecen "pruebas gratuitas" que no son nada gratuitas: comienzan a instalar software dañino de inmediato. Los analistas cierran algunos. Aparecen otros nuevos. Es un juego digital del matamoscas.
FIN7 no es nuevo en este juego. El grupo vinculado a Rusia existe desde al menos 2013. ¿Su cartera criminal? Masivo. Han creado más de 4.000 dominios de phishing. Les encanta apuntar a los restaurantes. Chipotle, Chili's, Arby's, todas víctimas. Robo de datos de clientes. A continuación, se producen transacciones fraudulentas.
Parece que son bastante creativos. Incluso crearon empresas de seguridad falsas - "Combi Security" y "Bastion Secure." ¿Su objetivo? Reclutar talento técnico. Es un poco sorprendente lo elaborados que se vuelven sus esquemas.
Las autoridades estadounidenses lograron algunos avances el año pasado. Tres miembros de FIN7 fueron arrestados, incluyendo lo que parece ser su líder ucraniano, Fedir Gladyr. Y justo este agosto, EE. UU. presentó demandas contra sitios web de IA que "desnudan" que operan sin consentimiento.
¿Usar IA para ataques? Eso es más nuevo. Pero usar contenido para adultos como cebo de malware? Viejo truco. A principios de los 2000, los sitios de pornografía eran lugares principales para la distribución de troyanos y spyware.
Esta mezcla de IA y explotación de la privacidad no es buena. No está del todo claro cuán mala puede llegar a ser esta situación. A medida que las herramientas de IA mejoren y se vuelvan más accesibles, es probable que disfrazar malware como aplicaciones de IA de moda crezca hasta 2025 y más allá.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Los Hackers Rusos Explotan la Tendencia de Imágenes Desnudas con IA para la Distribución de Malware
Los hackers rusos están aprovechando la ola de imágenes desnudas generadas por IA para difundir malware. La firma de seguridad Silent Push detectó al notorio grupo FIN7 detrás de al menos siete sitios web falsos de "generador de IA Deepnude". Estos sitios prometen crear imágenes desnudas a partir de fotos normales de mujeres. Cosas bastante sospechosas.
Los usuarios son engañados. Descargan archivos. Se instala malware. Algunos sitios ofrecen "pruebas gratuitas" que no son nada gratuitas: comienzan a instalar software dañino de inmediato. Los analistas cierran algunos. Aparecen otros nuevos. Es un juego digital del matamoscas.
FIN7 no es nuevo en este juego. El grupo vinculado a Rusia existe desde al menos 2013. ¿Su cartera criminal? Masivo. Han creado más de 4.000 dominios de phishing. Les encanta apuntar a los restaurantes. Chipotle, Chili's, Arby's, todas víctimas. Robo de datos de clientes. A continuación, se producen transacciones fraudulentas.
Parece que son bastante creativos. Incluso crearon empresas de seguridad falsas - "Combi Security" y "Bastion Secure." ¿Su objetivo? Reclutar talento técnico. Es un poco sorprendente lo elaborados que se vuelven sus esquemas.
Las autoridades estadounidenses lograron algunos avances el año pasado. Tres miembros de FIN7 fueron arrestados, incluyendo lo que parece ser su líder ucraniano, Fedir Gladyr. Y justo este agosto, EE. UU. presentó demandas contra sitios web de IA que "desnudan" que operan sin consentimiento.
¿Usar IA para ataques? Eso es más nuevo. Pero usar contenido para adultos como cebo de malware? Viejo truco. A principios de los 2000, los sitios de pornografía eran lugares principales para la distribución de troyanos y spyware.
Esta mezcla de IA y explotación de la privacidad no es buena. No está del todo claro cuán mala puede llegar a ser esta situación. A medida que las herramientas de IA mejoren y se vuelvan más accesibles, es probable que disfrazar malware como aplicaciones de IA de moda crezca hasta 2025 y más allá.