TRM Labs выявила девять новых групп-вымогателей, которые широко используют ИИ для обмана своих жертв.
Резюме
TRM Labs изучила, как девять новых групп программ-вымогателей используют ИИ
Искусственный интеллект позволяет группам-вымогателям значительно масштабировать свои операции
Группы используют инструменты ИИ для автоматизации атак социальной инженерии, которые становятся все более распространенными
С тех пор как появились новейшие инструменты ИИ, мошенники начали использовать их в своих атаках. В понедельник, 6 октября, платформа блокчейн-аналитики TRM Labs опубликовала отчет о девяти новых группах-вымогателях и о том, как они используют ИИ.
Эти группы включают Arkana Security, Dire Wolf, Frag и Sarcoma, среди прочих, которые применяют различные тактики и нацеливаются на разных жертв. Однако, что их объединяет, так это возрастающее использование ИИ в их операциях с программами-вымогателями.
Как группы программ-вымогателей используют ИИ в мошенничествах
В отчете отмечается, что ИИ становится неотъемлемой частью операций программ-вымогателей. В частности, он позволяет этим группам значительно масштабировать свою деятельность. Более того, эта технология позволяет использовать новые виды тактик, особенно тех, которые эксплуатируют человеческий элемент безопасности.
Это особенно относится к мошенничеству с использованием социальной инженерии, которое раньше требовало много времени и обширных исследований и подготовки. Теперь злоумышленники-вымогатели могут использовать ИИ для написания сообщений и создания дипфейков, которые становятся все более правдоподобными.
Мошенники также используют большие языковые модели (LLMs) для автоматизации генерации кода, снижая барьер для входа для злоумышленников. ИИ также позволяет создавать полиморфные вредоносные программы, которые изменяются с каждой инфекцией, что значительно усложняет их обнаружение.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
11 Лайков
Награда
11
6
Репост
Поделиться
комментарий
0/400
fren.eth
· 9ч назад
Не ожидал, что ИИ будет таким бессовестным
Посмотреть ОригиналОтветить0
Tokenomics911
· 9ч назад
Не ожидал, что ИИ тоже начнет заниматься такими вещами.
Посмотреть ОригиналОтветить0
MintMaster
· 9ч назад
Этот способ зарабатывания денег действительно новаторский.
Посмотреть ОригиналОтветить0
PumpDetector
· 9ч назад
лол, настоящий программный вымогатель был в хайпе ИИ все это время, смх
Искусственный интеллект-вымогатель находится на росте, так как злоумышленники активизируют свои действия: отчет
TRM Labs выявила девять новых групп-вымогателей, которые широко используют ИИ для обмана своих жертв.
Резюме
С тех пор как появились новейшие инструменты ИИ, мошенники начали использовать их в своих атаках. В понедельник, 6 октября, платформа блокчейн-аналитики TRM Labs опубликовала отчет о девяти новых группах-вымогателях и о том, как они используют ИИ.
Эти группы включают Arkana Security, Dire Wolf, Frag и Sarcoma, среди прочих, которые применяют различные тактики и нацеливаются на разных жертв. Однако, что их объединяет, так это возрастающее использование ИИ в их операциях с программами-вымогателями.
Как группы программ-вымогателей используют ИИ в мошенничествах
В отчете отмечается, что ИИ становится неотъемлемой частью операций программ-вымогателей. В частности, он позволяет этим группам значительно масштабировать свою деятельность. Более того, эта технология позволяет использовать новые виды тактик, особенно тех, которые эксплуатируют человеческий элемент безопасности.
Это особенно относится к мошенничеству с использованием социальной инженерии, которое раньше требовало много времени и обширных исследований и подготовки. Теперь злоумышленники-вымогатели могут использовать ИИ для написания сообщений и создания дипфейков, которые становятся все более правдоподобными.
Мошенники также используют большие языковые модели (LLMs) для автоматизации генерации кода, снижая барьер для входа для злоумышленников. ИИ также позволяет создавать полиморфные вредоносные программы, которые изменяются с каждой инфекцией, что значительно усложняет их обнаружение.