A verificação KYC está desatualizada? Aumento explosivo de crimes cibernéticos com IA no Sudeste Asiático: ONU alerta para ameaças de fraudes automatizadas
No passado, o crime cibernético era predominantemente praticado por hackers solitários, mas agora evoluiu para um comportamento comercial em larga escala operado por grupos criminosos transnacionais. De acordo com o mais recente relatório do Escritório das Nações Unidas sobre Drogas e Crime (UNODC), o Sudeste Asiático está se tornando o centro desta onda de crimes impulsionados pela tecnologia. Ferramentas de automação, inteligência artificial (IA) e tecnologia de deepfake estão redefinindo técnicas de fraude, extorsão, tráfico de pessoas e Lavagem de dinheiro, permitindo que os grupos criminosos expandam seu território, evitem a supervisão legal e aumentem a eficiência da fraude.
Criminalidade automatizada: de phishing a botnets, o crescimento explosivo da escala de ataques
As técnicas de fraude já estão completamente automatizadas. Desde kits de phishing "16shop" fabricados na Indonésia e distribuídos globalmente, até o uso de redes zumbis (botnet) para executar ataques de spam, ataques DDoS e disseminação de ransomware, a tecnologia de automação permite que criminosos com baixa qualificação técnica realizem fraudes em escala global. Até 3,4 bilhões de e-mails maliciosos são enviados diariamente em todo o mundo, dos quais 1,2% são ataques de phishing.
Aplicações maliciosas de IA: O novo "superpoder" dos criminosos
A tecnologia de IA foi armada por grupos criminosos. Desde a geração automática de código malicioso, passando pela superação de mecanismos de verificação, até a criação de malware inteligente que se adapta ao ambiente, a IA está aumentando a escala e a precisão dos ataques cibernéticos. Por exemplo, o "DeepLocker" desenvolvido pela IBM demonstra como usar IA para ocultar malware em software legítimo, até que um alvo específico seja identificado para acionar o ataque.
Tecnologia de deepfake cria avatares realistas de CEO, amante e polícia
A voz e a imagem geradas por IA estão sendo amplamente utilizadas em fraudes. Em 2024, um funcionário financeiro em Hong Kong transferiu inadvertidamente 25 milhões de dólares após uma videoconferência com um "CFO deepfake". Casos semelhantes também surgiram em Singapura e em outros países, e até mesmo criminosos têm utilizado tecnologia de cópia de voz de IA para realizar "fraudes de sequestro falsas".
(「Reuniões online em grupo são todas falsas」 Funcionário de Hong Kong vítima de fraudes de deepfake, transferiu 200 milhões de HKD para um falso chefe )
AI ajuda a engenharia social de fraudes: diversidade linguística, conteúdo real, difícil de identificar
A IA não apenas gera vozes e imagens enganosas, mas também pode gerar em grande escala e-mails de phishing e mensagens de texto fraudulentas que parecem reais. Organizações criminosas já conseguem usar modelos de linguagem de grande escala (LLM) para criar conteúdos enganosos contextualizados e com um tom profissional, e até mesmo realizar traduções em tempo real, ajustes de tom e ajustes culturais através de ferramentas de IA, permitindo que as fraudes se conectem de maneira fluida entre diferentes idiomas.
Automação de fluxo de dinheiro e avatares virtuais: técnicas de lavagem de dinheiro entram na era da IA
No Sudeste Asiático, a IA está sendo usada para automatizar a criação de contas de fachada, contornar a verificação KYC, realizar "transferências em lotes" (smurfing) e outros processos de lavagem de dinheiro. Contas bancárias virtuais e plataformas de carteiras digitais estão sendo abusadas, permitindo que grandes quantias de dinheiro obtidas por fraude sejam rapidamente convertidas em criptomoeda ou branqueadas através de sistemas financeiros clandestinos.
Táticas novas de sedução e extorsão: ataques a jovens com fotos nuas e vídeos de sexo falsificados criados por IA
O relatório da UNODC aponta que, nos últimos anos, fábricas de fraude na região do Sudeste Asiático têm aplicado IA na extorsão sexual (sextortion). Esses grupos usam imagens pornográficas falsas geradas por IA para enganar as vítimas a fazerem vídeo chamadas nuas, e depois gravam e ameaçam extorquir. Há indícios de que os centros de fraude no Camboja, Mianmar e Laos estão envolvidos em pelo menos 493 casos de extorsão de menores.
Geração de identidade, documentos e reconhecimento facial por IA: o sistema de verificação KYC está em perigo.
A IA não só pode criar dados falsos de reconhecimento facial, vozes e até documentos como carteiras de motorista, passaportes e extratos bancários, com um alto nível de realismo, quase indistinguíveis da realidade. Pesquisas indicam que documentos falsos representam 75% das fraudes de identidade. O relatório alerta que, nos próximos 2 a 3 anos, se não houver medidas eficazes, o sistema KYC será amplamente comprometido.
A Polícia de Crimes Cibernéticos da Tailândia (CCIB) desmantelou vários centros de fraude relacionados com IA, incluindo o uso de tecnologia de voz e rosto gerada por IA para se passar por oficiais de polícia e roubar dinheiro; ou o uso de ferramentas de CRM para acompanhar o progresso de cada vítima e responder automaticamente. Em um dos casos, foi até descoberta uma sede de fraude de 12 andares, combinando fraudes com criptomoedas, falsificação de identidade e processamento de fluxo de caixa.
A UNODC apela que, diante desta revolução de crimes cibernéticos impulsionada por IA, os países devem acelerar a elaboração de regulamentos, fortalecer a cooperação internacional e o compartilhamento de recursos, além de investir em ferramentas de combate à IA, como identificação de deepfake e tecnologias de verificação de marcas d'água. Caso contrário, o Sudeste Asiático poderá se tornar um campo de testes e um terreno fértil para fraudes e ferramentas criminosas baseadas em IA.
Este artigo KYC está desatualizado? O crime cibernético com IA no Sudeste Asiático aumentou drasticamente: as Nações Unidas alertam para a ameaça de fraudes automatizadas, surgindo pela primeira vez na Chain News ABMedia.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A verificação KYC está desatualizada? Aumento explosivo de crimes cibernéticos com IA no Sudeste Asiático: ONU alerta para ameaças de fraudes automatizadas
No passado, o crime cibernético era predominantemente praticado por hackers solitários, mas agora evoluiu para um comportamento comercial em larga escala operado por grupos criminosos transnacionais. De acordo com o mais recente relatório do Escritório das Nações Unidas sobre Drogas e Crime (UNODC), o Sudeste Asiático está se tornando o centro desta onda de crimes impulsionados pela tecnologia. Ferramentas de automação, inteligência artificial (IA) e tecnologia de deepfake estão redefinindo técnicas de fraude, extorsão, tráfico de pessoas e Lavagem de dinheiro, permitindo que os grupos criminosos expandam seu território, evitem a supervisão legal e aumentem a eficiência da fraude.
Criminalidade automatizada: de phishing a botnets, o crescimento explosivo da escala de ataques
As técnicas de fraude já estão completamente automatizadas. Desde kits de phishing "16shop" fabricados na Indonésia e distribuídos globalmente, até o uso de redes zumbis (botnet) para executar ataques de spam, ataques DDoS e disseminação de ransomware, a tecnologia de automação permite que criminosos com baixa qualificação técnica realizem fraudes em escala global. Até 3,4 bilhões de e-mails maliciosos são enviados diariamente em todo o mundo, dos quais 1,2% são ataques de phishing.
Aplicações maliciosas de IA: O novo "superpoder" dos criminosos
A tecnologia de IA foi armada por grupos criminosos. Desde a geração automática de código malicioso, passando pela superação de mecanismos de verificação, até a criação de malware inteligente que se adapta ao ambiente, a IA está aumentando a escala e a precisão dos ataques cibernéticos. Por exemplo, o "DeepLocker" desenvolvido pela IBM demonstra como usar IA para ocultar malware em software legítimo, até que um alvo específico seja identificado para acionar o ataque.
Tecnologia de deepfake cria avatares realistas de CEO, amante e polícia
A voz e a imagem geradas por IA estão sendo amplamente utilizadas em fraudes. Em 2024, um funcionário financeiro em Hong Kong transferiu inadvertidamente 25 milhões de dólares após uma videoconferência com um "CFO deepfake". Casos semelhantes também surgiram em Singapura e em outros países, e até mesmo criminosos têm utilizado tecnologia de cópia de voz de IA para realizar "fraudes de sequestro falsas".
(「Reuniões online em grupo são todas falsas」 Funcionário de Hong Kong vítima de fraudes de deepfake, transferiu 200 milhões de HKD para um falso chefe )
AI ajuda a engenharia social de fraudes: diversidade linguística, conteúdo real, difícil de identificar
A IA não apenas gera vozes e imagens enganosas, mas também pode gerar em grande escala e-mails de phishing e mensagens de texto fraudulentas que parecem reais. Organizações criminosas já conseguem usar modelos de linguagem de grande escala (LLM) para criar conteúdos enganosos contextualizados e com um tom profissional, e até mesmo realizar traduções em tempo real, ajustes de tom e ajustes culturais através de ferramentas de IA, permitindo que as fraudes se conectem de maneira fluida entre diferentes idiomas.
Automação de fluxo de dinheiro e avatares virtuais: técnicas de lavagem de dinheiro entram na era da IA
No Sudeste Asiático, a IA está sendo usada para automatizar a criação de contas de fachada, contornar a verificação KYC, realizar "transferências em lotes" (smurfing) e outros processos de lavagem de dinheiro. Contas bancárias virtuais e plataformas de carteiras digitais estão sendo abusadas, permitindo que grandes quantias de dinheiro obtidas por fraude sejam rapidamente convertidas em criptomoeda ou branqueadas através de sistemas financeiros clandestinos.
Táticas novas de sedução e extorsão: ataques a jovens com fotos nuas e vídeos de sexo falsificados criados por IA
O relatório da UNODC aponta que, nos últimos anos, fábricas de fraude na região do Sudeste Asiático têm aplicado IA na extorsão sexual (sextortion). Esses grupos usam imagens pornográficas falsas geradas por IA para enganar as vítimas a fazerem vídeo chamadas nuas, e depois gravam e ameaçam extorquir. Há indícios de que os centros de fraude no Camboja, Mianmar e Laos estão envolvidos em pelo menos 493 casos de extorsão de menores.
Geração de identidade, documentos e reconhecimento facial por IA: o sistema de verificação KYC está em perigo.
A IA não só pode criar dados falsos de reconhecimento facial, vozes e até documentos como carteiras de motorista, passaportes e extratos bancários, com um alto nível de realismo, quase indistinguíveis da realidade. Pesquisas indicam que documentos falsos representam 75% das fraudes de identidade. O relatório alerta que, nos próximos 2 a 3 anos, se não houver medidas eficazes, o sistema KYC será amplamente comprometido.
A Polícia de Crimes Cibernéticos da Tailândia (CCIB) desmantelou vários centros de fraude relacionados com IA, incluindo o uso de tecnologia de voz e rosto gerada por IA para se passar por oficiais de polícia e roubar dinheiro; ou o uso de ferramentas de CRM para acompanhar o progresso de cada vítima e responder automaticamente. Em um dos casos, foi até descoberta uma sede de fraude de 12 andares, combinando fraudes com criptomoedas, falsificação de identidade e processamento de fluxo de caixa.
A UNODC apela que, diante desta revolução de crimes cibernéticos impulsionada por IA, os países devem acelerar a elaboração de regulamentos, fortalecer a cooperação internacional e o compartilhamento de recursos, além de investir em ferramentas de combate à IA, como identificação de deepfake e tecnologias de verificação de marcas d'água. Caso contrário, o Sudeste Asiático poderá se tornar um campo de testes e um terreno fértil para fraudes e ferramentas criminosas baseadas em IA.
Este artigo KYC está desatualizado? O crime cibernético com IA no Sudeste Asiático aumentou drasticamente: as Nações Unidas alertam para a ameaça de fraudes automatizadas, surgindo pela primeira vez na Chain News ABMedia.