13 апреля исследователи из Калифорнийского университета обнаружили, что некоторые сторонние маршрутизаторы больших языковых моделей (LLM) на базе ИИ могут иметь уязвимости безопасности, что приводит к краже криптоактивов.



В четверг была опубликована статья, в которой проведено измерение вредоносных атак посредников в цепочке поставок LLM, выявлены четыре вектора атак, включая внедрение вредоносного кода и извлечение учетных данных.

Соавтор статьи Чаофан Шоу в X заявил: «Есть 26 маршрутизаторов LLM, которые тайно внедряют вредоносные вызовы инструментов и крадут учетные данные.»

В настоящее время все больше интеллектуальных агентов LLM передают запросы через сторонние API- посредники или маршрутизаторы, которые агрегируют доступ к таким поставщикам услуг, как OpenAI, Anthropic и Google. Однако эти маршрутизаторы прерывают TLS (транспортный уровень безопасности) соединения с интернетом, что позволяет им получать доступ ко всем сообщениям в открытом виде.

Это означает, что разработчики, использующие AI-кодирующие прокси (например, Claude Code) для разработки смарт-контрактов или кошельков, могут непреднамеренно передавать приватные ключи, мнемонические фразы и другие чувствительные данные в инфраструктуру маршрутизаторов, которые еще не прошли проверку безопасности или не защищены должным образом.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.28KДержатели:1
    0.00%
  • РК:$2.27KДержатели:0
    0.00%
  • РК:$2.27KДержатели:0
    0.00%
  • РК:$2.28KДержатели:1
    0.00%
  • РК:$2.28KДержатели:0
    0.00%
  • Закрепить