TRM Labs виявила дев'ять нових груп-вимагачів, які широко використовують штучний інтелект для обману своїх жертв.
Резюме
TRM Labs проаналізував, як дев'ять нових груп-вимагачів використовують ШІ
Штучний інтелект дозволяє групам-вимагачам масово розширювати свої операції
Групи використовують AI інструменти для автоматизації соціальних атак, які зростають
З моменту появи нових інструментів штучного інтелекту шахраї почали використовувати їх у своїх атаках. У понеділок, 6 жовтня, платформа блокчейн-аналітики TRM Labs опублікувала звіт про дев'ять нових груп-вимагачів та їхнє використання штучного інтелекту.
Ці групи включають Arkana Security, Dire Wolf, Frag та Sarcoma, серед інших, які використовують різні тактики та намагаються вразити різних жертв. Однак, що їх об'єднує, так це зростаюче використання ШІ в їхніх операціях з програмами-вимагачами.
Як групи-вимагачі використовують ШІ у шахрайствах
У звіті зазначено, що штучний інтелект стає невід'ємною частиною операцій з програмами-вимагачами. Зокрема, він дозволяє цим групам масово розширювати свою діяльність. Крім того, ця технологія дозволяє використовувати нові типи тактик, особливо ті, що експлуатують людський елемент безпеки.
Це стосується зокрема шахрайств у сфері соціальної інженерії, які раніше вимагали багато часу та ґрунтовних досліджень і підготовки. Тепер зловмисники, які розповсюджують програмне забезпечення для вимагання, можуть використовувати штучний інтелект для написання повідомлень та створення діпфейк-відео, які стають дедалі переконливішими.
Шахраї також використовують великі мовні моделі (LLMs) для автоматизації генерації коду, знижуючи бар'єр для входу для нападників. ШІ також дозволяє створення поліформного шкідливого ПЗ, яке змінюється з кожною інфекцією, що ускладнює виявлення.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
11 лайків
Нагородити
11
6
Репост
Поділіться
Прокоментувати
0/400
fren.eth
· 9год тому
Не думав, що ШІ може бути таким безсоромним.
Переглянути оригіналвідповісти на0
Tokenomics911
· 9год тому
Не думав, що ШІ також почне займатися такими речами.
Переглянути оригіналвідповісти на0
MintMaster
· 9год тому
Цей спосіб заробітку справді новий
Переглянути оригіналвідповісти на0
PumpDetector
· 9год тому
лmao, справжній програмний забезпечення для вимагання було ажіотажем навколо ШІ весь цей час smh
Переглянути оригіналвідповісти на0
LiquidityWhisperer
· 9год тому
Чорна їжа чорної їжі закрутилася
Переглянути оригіналвідповісти на0
SchroedingersFrontrun
· 9год тому
Ой, шахрайство вже почало ставати інтелектуальним.
Шкідливе програмне забезпечення для вимагання за допомогою штучного інтелекту зростає, оскільки зловмисники нарощують активність: Звіт
TRM Labs виявила дев'ять нових груп-вимагачів, які широко використовують штучний інтелект для обману своїх жертв.
Резюме
З моменту появи нових інструментів штучного інтелекту шахраї почали використовувати їх у своїх атаках. У понеділок, 6 жовтня, платформа блокчейн-аналітики TRM Labs опублікувала звіт про дев'ять нових груп-вимагачів та їхнє використання штучного інтелекту.
Ці групи включають Arkana Security, Dire Wolf, Frag та Sarcoma, серед інших, які використовують різні тактики та намагаються вразити різних жертв. Однак, що їх об'єднує, так це зростаюче використання ШІ в їхніх операціях з програмами-вимагачами.
Як групи-вимагачі використовують ШІ у шахрайствах
У звіті зазначено, що штучний інтелект стає невід'ємною частиною операцій з програмами-вимагачами. Зокрема, він дозволяє цим групам масово розширювати свою діяльність. Крім того, ця технологія дозволяє використовувати нові типи тактик, особливо ті, що експлуатують людський елемент безпеки.
Це стосується зокрема шахрайств у сфері соціальної інженерії, які раніше вимагали багато часу та ґрунтовних досліджень і підготовки. Тепер зловмисники, які розповсюджують програмне забезпечення для вимагання, можуть використовувати штучний інтелект для написання повідомлень та створення діпфейк-відео, які стають дедалі переконливішими.
Шахраї також використовують великі мовні моделі (LLMs) для автоматизації генерації коду, знижуючи бар'єр для входу для нападників. ШІ також дозволяє створення поліформного шкідливого ПЗ, яке змінюється з кожною інфекцією, що ускладнює виявлення.