Как компании борются с темной стороной ИИ

Кратко

Интеграция ИИ в повседневную жизнь вызывает опасения по поводу безопасности. Компании, правительства и альянсы заполняют пустоту, решая проблемы функционирования, вызывая беспокойство и испытывая нехватку.

Как компании борются с тёмной стороной ИИ

Искусственный интеллект все больше интегрируется в нашу повседневную жизнь, от чат-ботов, предоставляющих эмоциональную поддержку, до алгоритмов, максимизирующих коммерцию, и его проблемы становятся все более очевидными. Вопросы уже не в том, «если», а в том, кто и как будет направлять ИИ к безопасности.

Компании, правительства и многонациональные альянсы постепенно заполняют пустоту, иногда реактивно, иногда предписывающе. Вот краткий обзор того, что работает, что вызывает беспокойство и чего все еще не хватает.

Технические титаны ужесточают контроль

Meta вводит защитные меры для подростков

В ответ на общественное и политическое недовольство Meta пообещала усилить свои меры безопасности в области ИИ:

Теперь его чат-боты будут отказывать в обсуждении самоубийств, саморазрушительного поведения или проблем с питанием у подростков, вместо этого направляя их к специалистам в области психического здоровья.

Это часть более крупной инициативы "учетные записи для подростков" на Facebook, Instagram и Messenger, которая направлена на обеспечение более безопасного опыта и осведомленности родителей, включая возможность узнать, с какими ботами дети взаимодействовали на прошлой неделе.

Критики утверждают, что эти меры давно назрели, особенно учитывая утечку данных, указывающих на то, что боты могли участвовать в смущающих "сентиментальных" разговорах с детьми. "Надежные тесты безопасности должны проводиться до выхода продуктов на рынок, а не задним числом", - предостерег один из защитников.

Meta отказалась от добровольного кодекса ИИ ЕС

Европейский Союз выпустил добровольный Кодекс практики, чтобы помочь разработчикам ИИ согласоваться с его Законом о ИИ. Meta отказалась подписывать, назвав это бюрократическим чрезмерным вмешательством, которое рискует затормозить инновации.

Сотрудничество с правительством США

OpenAI и Anthropic согласились делиться своими ИИ-моделями с Институтом безопасности ИИ США как до, так и после публикации. Идея заключается в том, чтобы получить отзывы по безопасности и снизить риски через государственную проверку.

В августе 2025 года 44 Генеральных прокурора США подписали совместное письмо, призывающее ключевые компании в области ИИ, включая Meta, OpenAI, Microsoft, Google и Replika, лучше защищать несовершеннолетних от хищнического ИИ-материала.

Иллинойс запрещает ИИ как терапию

Иллинойс стал одним из первых штатов, запретивших использование чат-ботов на базе ИИ в качестве терапии, если за этим не наблюдает сертифицированный специалист. Невада и Юта внедрили аналогичные ограничения. Нарушители могут столкнуться с гражданскими штрафами до 10 000 долларов.

Глобальные законодательные рамки

Регулирование развивается по всему миру, от Закона ЕС о ИИ до Закона о защите данных в Индии и требований безопасности в Южной Корее. Растущее число штатов США внедряют законодательство, специфичное для ИИ, или расширяют существующие рамки, такие как защита прав потребителей, прозрачность алгоритмов и аудит на наличие предвзятости.

Сенатор Уинер из Калифорнии предложил законопроект, обязывающий крупные компании в сфере ИИ публично раскрывать свои практики безопасности и сообщать о серьезных инцидентах государственным органам.

Институты безопасности ИИ: Многонациональный надзор

Чтобы обеспечить независимый и стандартизованный обзор ИИ, страны создали Институты безопасности ИИ:

США и Великобритания создали национальные институты после Саммита по безопасности ИИ 2023 года.

К 2025 году многие страны, включая Японию, Францию, Германию, Италию, Сингапур, Южную Корею, Канаду и ЕС, присоединились к сети для оценки безопасности моделей и установления глобальных стандартов надзора.

Отчеты показывают постоянные разрывы

Институт Будущего Жизни (FLI) оценивает компании по разработке ИИ на уровень D или ниже в плане обеспечения экзистенциальной безопасности; ни одна не получила оценку выше C+. Anthropic занял первое место с оценкой C+, за ним следует OpenAI (C) и Meta (D).

Бывшие сотрудники OpenAI обвиняют компанию в том, что она ставит прибыль выше безопасности, поднимая вопросы прозрачности и этики за закрытыми дверями.

От подростковых барьеров Meta до запрета на лечение в Иллинойсе, до таких компаний, как SSI, интегрирующих безопасность в ИИ, послание ясное: законодательство и предвидение отстают от технологий. Утечка данных, судебные разбирательства и международное внимание демонстрируют, что вред обычно приходит первым. Задача заключается не только в разработке лучшего ИИ, но и в том, чтобы каждая новая разработка защищала людей до того, как произойдет катастрофа.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить