Hackers russos estão aproveitando a onda de imagens nuas geradas por IA para espalhar malware. A empresa de segurança Silent Push identificou o notório grupo FIN7 por trás de pelo menos sete sites falsos "Deepnude AI generator". Esses sites prometem criar imagens nuas a partir de fotos normais de mulheres. Coisas bem suspeitas.
Os utilizadores são enganados. Eles descarregam ficheiros. Malware instala-se. Alguns sites oferecem "períodos experimentais gratuitos" que não são de todo gratuitos - começam imediatamente a instalar software prejudicial. Os analistas encerram alguns. Novos surgem. É um jogo de moles digitais.
A FIN7 não é nova neste jogo. O grupo ligado à Rússia está ativo desde pelo menos 2013. O seu portfólio criminal? Massivo. Criaram mais de 4.000 domínios de phishing. Eles adoram atacar restaurantes. Chipotle, Chili's, Arby's - todas vítimas. Dados de clientes roubados. Transações fraudulentas seguem.
Parece que eles são bastante criativos. Eles até fizeram empresas de segurança falsas - "Combi Security" e "Bastion Secure." O objetivo deles? Recrutar talento técnico. É meio surpreendente quão elaborados se tornam os seus esquemas.
As autoridades dos EUA fizeram alguns progressos no ano passado. Três membros do FIN7 foram presos, incluindo o que parece ser o seu líder ucraniano, Fedir Gladyr. E apenas este agosto, os EUA entraram com processos contra websites de IA que "despem" que operam sem consentimento.
Usar IA para ataques? Isso é mais recente. Mas usar conteúdo adulto como isca de malware? Truque antigo. No início dos anos 2000, sites de pornografia eram locais primários para a distribuição de Trojans e spyware.
Esta mistura de IA e exploração da privacidade não é boa. Não está totalmente claro quão grave isso pode se tornar. À medida que as ferramentas de IA melhoram e se tornam mais fáceis de acessar, disfarçar malware como aplicativos de IA na moda provavelmente crescerá até 2025 e além.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Hackers Russos Exploraram a Tendência de Imagens Núas de IA para Distribuição de Malware
Hackers russos estão aproveitando a onda de imagens nuas geradas por IA para espalhar malware. A empresa de segurança Silent Push identificou o notório grupo FIN7 por trás de pelo menos sete sites falsos "Deepnude AI generator". Esses sites prometem criar imagens nuas a partir de fotos normais de mulheres. Coisas bem suspeitas.
Os utilizadores são enganados. Eles descarregam ficheiros. Malware instala-se. Alguns sites oferecem "períodos experimentais gratuitos" que não são de todo gratuitos - começam imediatamente a instalar software prejudicial. Os analistas encerram alguns. Novos surgem. É um jogo de moles digitais.
A FIN7 não é nova neste jogo. O grupo ligado à Rússia está ativo desde pelo menos 2013. O seu portfólio criminal? Massivo. Criaram mais de 4.000 domínios de phishing. Eles adoram atacar restaurantes. Chipotle, Chili's, Arby's - todas vítimas. Dados de clientes roubados. Transações fraudulentas seguem.
Parece que eles são bastante criativos. Eles até fizeram empresas de segurança falsas - "Combi Security" e "Bastion Secure." O objetivo deles? Recrutar talento técnico. É meio surpreendente quão elaborados se tornam os seus esquemas.
As autoridades dos EUA fizeram alguns progressos no ano passado. Três membros do FIN7 foram presos, incluindo o que parece ser o seu líder ucraniano, Fedir Gladyr. E apenas este agosto, os EUA entraram com processos contra websites de IA que "despem" que operam sem consentimento.
Usar IA para ataques? Isso é mais recente. Mas usar conteúdo adulto como isca de malware? Truque antigo. No início dos anos 2000, sites de pornografia eram locais primários para a distribuição de Trojans e spyware.
Esta mistura de IA e exploração da privacidade não é boa. Não está totalmente claro quão grave isso pode se tornar. À medida que as ferramentas de IA melhoram e se tornam mais fáceis de acessar, disfarçar malware como aplicativos de IA na moda provavelmente crescerá até 2025 e além.