Киберпреступность, возможно, — единственная работа, которую ИИ не занимает, — предполагает исследование

Вкратце

  • Исследователи из Кембриджа, Эдинбурга и Стратклайд проанализировали 97 895 тем на форумах о киберпреступности, опубликованных после запуска ChatGPT.
  • Такие «темные ИИ» инструменты, как WormGPT, создавали культурный шум, но практически не генерировали рабочее вредоносное ПО, в то время как взломанные чатботы становятся все труднее держать в рабочем состоянии более нескольких дней.
  • Самое крупное измеряемое преступление, связанное с ИИ, — это не взломы. Это массовая рассылка SEO-спама, мошенничество с романтическими отношениями и продажа сгенерированных ИИ обнаженных фотографий по доллару за штуку.

Три года компании по кибербезопасности, правительства и лаборатории ИИ предупреждали, что генеративный ИИ вызовет новое поколение сверхмощных хакеров. Согласно новому академическому документу, который действительно исследовал ситуацию, эти сверхмощные хакеры в основном используют ChatGPT для написания спама и генерации обнаженных фотографий ради развлечения. Исследование под названием «Самостоятельный комплекс или Vibercrime?» было опубликовано на arXiv исследователями из Кембриджа и других университетов и направлено на понимание того, как киберпреступный подполье действительно внедряет ИИ, а не как это описывают поставщики кибербезопасности. «Мы представляем один из первых попыток эмпирического исследования с использованием смешанных методов ранних моделей внедрения GenAI в киберпреступное подполье», — написали исследователи.

Команда проанализировала 97 895 тем на форумах, опубликованных после запуска ChatGPT в ноябре 2022 года, взятых из набора данных CrimeBB Центра киберпреступности Кембриджа, включающего форумы подземного и темного интернета. Они использовали тематические модели, вручную прочитали более 3 200 тем и погрузились в сцену этнографически.  Вывод неутешителен для сообщества апокалиптиков ИИ: 97,3% тем в выборке были классифицированы как «другое», то есть не связаны с использованием ИИ для преступлений вообще. Только 1,9% включали использование инструментов кодирования vibe. «Ничего более чем неограниченный ChatGPT» Помните WormGPT, FraudGPT и волну якобы вредоносных чатботов, которые заполнили заголовки в 2023 году? Данные форума рассказывают другую историю.

Большинство сообщений о «темном ИИ», как выяснили исследователи, — это просьбы о бесплатном доступе, праздное спекулирование и жалобы на то, что инструменты на самом деле не работают. Один разработчик популярного сервиса Dark AI в конце концов признался участникам форума, что продукт — это маркетинговая уловка. «В конце концов, [CybercrimeAI] — это ничто иное, как неограниченный ChatGPT», — написал разработчик, прежде чем проект был закрыт. «Любой в Интернете может использовать хорошо известную технику взлома и добиться таких же, если не лучших, результатов.» К концу 2024 года, по словам исследователей, взломы для основных моделей стали одноразовыми. Большинство перестают работать за неделю или меньше. Модели с открытым исходным кодом можно взломать бесконечно, но они медленные, требуют много ресурсов и зафиксированы во времени. «Ограничения для систем ИИ оказываются как полезными, так и эффективными», — заключают авторы, что они сами называют контринтуитивным открытием для критической статьи. Vibe-кодирование реально. В основном, взлом vibe — нет Статья прямо обращается к широко освещенному отчету Anthropic за август 2025 года, в котором утверждалось, что Claude Code использовался для проведения кампании вымогательства «vibe hacking» против 17 организаций. Данные команды из Кембриджа просто не подтверждают такую картину в более широком underground. На изученных форумах помощники по кодированию ИИ используются так же, как и обычные разработчики: как автозавершение и замена Stack Overflow для уже опытных кодеров. Люди с низким уровнем навыков используют готовые скрипты, потому что они работают. Исследователи обнаружили, что даже хакеры не доверяют своим инструментам vibe-кодирования. «Кодирование с помощью ИИ — это двуострый меч. Оно ускоряет разработку, но также увеличивает риски, такие как небезопасный код и уязвимости цепочек поставок», — сказал один пользователь на форуме, мониторимом исследователями. Другой предупредил о долгосрочной потере навыков: «Теперь ясно, что использование ИИ для кода вызывает очень быстрое негативное ухудшение ваших навыков», — написал хакер в форуме, — «Если ваша цель — просто создавать мошеннические SaaS и вам не важны качество, безопасность или производительность кода, vibe-кодирование может быть жизнеспособным. (Также кажется подходящим для фишинга).»

Это резко контрастирует с тревожными прогнозами Europol, которая в 2025 году предупреждала, что полностью автономный ИИ однажды сможет управлять преступными сетями. Где ИИ действительно помогает преступникам Разрушение, когда оно происходит, — это на самом дне пищевой цепочки. Мошенники SEO используют LLM для массового производства блогового спама, чтобы бороться с падающей доходностью от рекламы. Мошенники, связанные с романтическими отношениями и операторы eWoring, добавляют голосовое клонирование и генерацию изображений. Мошенники, ищущие быстрый заработок, создают AI-писаные электронные книги, которые продают по 20 долларов за штуку. Самый тревожный рынок, который нашли исследователи, — услуги по генерации обнаженных изображений. Один оператор рекламировал: «Я могу сделать любую девушку обнаженной с помощью ИИ… 1 картинка = 1 доллар, 10 картинок = 8 долларов, 50 картинок = 40 долларов, 90 картинок = 75 долларов.» Ничего из этого не является сложной киберпреступностью. Это тот же низкомаржинальный, высокообъемный бизнес, который поддерживал индустрию спама два десятилетия, теперь с чуть лучшими инструментами. Заключительное наблюдение исследователей — самое острое. Самый большой способ, которым ИИ может нарушить экосистему киберпреступности, — это не сделать преступников более способными. Это — вытеснение уволенных разработчиков из легальных технологий в подполье в поисках работы. «В последние месяцы тревога по поводу разрушения рынка труда этими инструментами резко возрастает», — говорится в статье. «Это может стать самым важным способом, которым генеративные ИИ-инструменты нарушают экосистему киберпреступности — массовые увольнения, экономический спад и охлаждение рынка труда, вынуждающее легальных, более квалифицированных разработчиков переходить в подпольные сообщества мошенничества, мошенничества и киберпреступности.»

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить