Интеграция ИИ в повседневную жизнь вызывает опасения по поводу безопасности. Компании, правительства и альянсы заполняют пустоту, решая проблемы функционирования, вызывая беспокойство и испытывая нехватку.
Искусственный интеллект все больше интегрируется в нашу повседневную жизнь, от чат-ботов, предоставляющих эмоциональную поддержку, до алгоритмов, максимизирующих коммерцию, и его проблемы становятся все более очевидными. Вопросы уже не в том, «если», а в том, кто и как будет направлять ИИ к безопасности.
Компании, правительства и многонациональные альянсы постепенно заполняют пустоту, иногда реактивно, иногда предписывающе. Вот краткий обзор того, что работает, что вызывает беспокойство и чего все еще не хватает.
Технические титаны ужесточают контроль
Meta вводит защитные меры для подростков
В ответ на общественное и политическое недовольство Meta пообещала усилить свои меры безопасности в области ИИ:
Теперь его чат-боты будут отказывать в обсуждении самоубийств, саморазрушительного поведения или проблем с питанием у подростков, вместо этого направляя их к специалистам в области психического здоровья.
Это часть более крупной инициативы "учетные записи для подростков" на Facebook, Instagram и Messenger, которая направлена на обеспечение более безопасного опыта и осведомленности родителей, включая возможность узнать, с какими ботами дети взаимодействовали на прошлой неделе.
Критики утверждают, что эти меры давно назрели, особенно учитывая утечку данных, указывающих на то, что боты могли участвовать в смущающих "сентиментальных" разговорах с детьми. "Надежные тесты безопасности должны проводиться до выхода продуктов на рынок, а не задним числом", - предостерег один из защитников.
Meta отказалась от добровольного кодекса ИИ ЕС
Европейский Союз выпустил добровольный Кодекс практики, чтобы помочь разработчикам ИИ согласоваться с его Законом о ИИ. Meta отказалась подписывать, назвав это бюрократическим чрезмерным вмешательством, которое рискует затормозить инновации.
Сотрудничество с правительством США
OpenAI и Anthropic согласились делиться своими ИИ-моделями с Институтом безопасности ИИ США как до, так и после публикации. Идея заключается в том, чтобы получить отзывы по безопасности и снизить риски через государственную проверку.
В августе 2025 года 44 Генеральных прокурора США подписали совместное письмо, призывающее ключевые компании в области ИИ, включая Meta, OpenAI, Microsoft, Google и Replika, лучше защищать несовершеннолетних от хищнического ИИ-материала.
Иллинойс запрещает ИИ как терапию
Иллинойс стал одним из первых штатов, запретивших использование чат-ботов на базе ИИ в качестве терапии, если за этим не наблюдает сертифицированный специалист. Невада и Юта внедрили аналогичные ограничения. Нарушители могут столкнуться с гражданскими штрафами до 10 000 долларов.
Глобальные законодательные рамки
Регулирование развивается по всему миру, от Закона ЕС о ИИ до Закона о защите данных в Индии и требований безопасности в Южной Корее. Растущее число штатов США внедряют законодательство, специфичное для ИИ, или расширяют существующие рамки, такие как защита прав потребителей, прозрачность алгоритмов и аудит на наличие предвзятости.
Сенатор Уинер из Калифорнии предложил законопроект, обязывающий крупные компании в сфере ИИ публично раскрывать свои практики безопасности и сообщать о серьезных инцидентах государственным органам.
Институты безопасности ИИ: Многонациональный надзор
Чтобы обеспечить независимый и стандартизованный обзор ИИ, страны создали Институты безопасности ИИ:
США и Великобритания создали национальные институты после Саммита по безопасности ИИ 2023 года.
К 2025 году многие страны, включая Японию, Францию, Германию, Италию, Сингапур, Южную Корею, Канаду и ЕС, присоединились к сети для оценки безопасности моделей и установления глобальных стандартов надзора.
Отчеты показывают постоянные разрывы
Институт Будущего Жизни (FLI) оценивает компании по разработке ИИ на уровень D или ниже в плане обеспечения экзистенциальной безопасности; ни одна не получила оценку выше C+. Anthropic занял первое место с оценкой C+, за ним следует OpenAI (C) и Meta (D).
Бывшие сотрудники OpenAI обвиняют компанию в том, что она ставит прибыль выше безопасности, поднимая вопросы прозрачности и этики за закрытыми дверями.
От подростковых барьеров Meta до запрета на лечение в Иллинойсе, до таких компаний, как SSI, интегрирующих безопасность в ИИ, послание ясное: законодательство и предвидение отстают от технологий. Утечка данных, судебные разбирательства и международное внимание демонстрируют, что вред обычно приходит первым. Задача заключается не только в разработке лучшего ИИ, но и в том, чтобы каждая новая разработка защищала людей до того, как произойдет катастрофа.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Как компании борются с темной стороной ИИ
Кратко
Интеграция ИИ в повседневную жизнь вызывает опасения по поводу безопасности. Компании, правительства и альянсы заполняют пустоту, решая проблемы функционирования, вызывая беспокойство и испытывая нехватку.
Искусственный интеллект все больше интегрируется в нашу повседневную жизнь, от чат-ботов, предоставляющих эмоциональную поддержку, до алгоритмов, максимизирующих коммерцию, и его проблемы становятся все более очевидными. Вопросы уже не в том, «если», а в том, кто и как будет направлять ИИ к безопасности.
Компании, правительства и многонациональные альянсы постепенно заполняют пустоту, иногда реактивно, иногда предписывающе. Вот краткий обзор того, что работает, что вызывает беспокойство и чего все еще не хватает.
Технические титаны ужесточают контроль
Meta вводит защитные меры для подростков
В ответ на общественное и политическое недовольство Meta пообещала усилить свои меры безопасности в области ИИ:
Теперь его чат-боты будут отказывать в обсуждении самоубийств, саморазрушительного поведения или проблем с питанием у подростков, вместо этого направляя их к специалистам в области психического здоровья.
Это часть более крупной инициативы "учетные записи для подростков" на Facebook, Instagram и Messenger, которая направлена на обеспечение более безопасного опыта и осведомленности родителей, включая возможность узнать, с какими ботами дети взаимодействовали на прошлой неделе.
Критики утверждают, что эти меры давно назрели, особенно учитывая утечку данных, указывающих на то, что боты могли участвовать в смущающих "сентиментальных" разговорах с детьми. "Надежные тесты безопасности должны проводиться до выхода продуктов на рынок, а не задним числом", - предостерег один из защитников.
Meta отказалась от добровольного кодекса ИИ ЕС
Европейский Союз выпустил добровольный Кодекс практики, чтобы помочь разработчикам ИИ согласоваться с его Законом о ИИ. Meta отказалась подписывать, назвав это бюрократическим чрезмерным вмешательством, которое рискует затормозить инновации.
Сотрудничество с правительством США
OpenAI и Anthropic согласились делиться своими ИИ-моделями с Институтом безопасности ИИ США как до, так и после публикации. Идея заключается в том, чтобы получить отзывы по безопасности и снизить риски через государственную проверку.
В августе 2025 года 44 Генеральных прокурора США подписали совместное письмо, призывающее ключевые компании в области ИИ, включая Meta, OpenAI, Microsoft, Google и Replika, лучше защищать несовершеннолетних от хищнического ИИ-материала.
Иллинойс запрещает ИИ как терапию
Иллинойс стал одним из первых штатов, запретивших использование чат-ботов на базе ИИ в качестве терапии, если за этим не наблюдает сертифицированный специалист. Невада и Юта внедрили аналогичные ограничения. Нарушители могут столкнуться с гражданскими штрафами до 10 000 долларов.
Глобальные законодательные рамки
Регулирование развивается по всему миру, от Закона ЕС о ИИ до Закона о защите данных в Индии и требований безопасности в Южной Корее. Растущее число штатов США внедряют законодательство, специфичное для ИИ, или расширяют существующие рамки, такие как защита прав потребителей, прозрачность алгоритмов и аудит на наличие предвзятости.
Сенатор Уинер из Калифорнии предложил законопроект, обязывающий крупные компании в сфере ИИ публично раскрывать свои практики безопасности и сообщать о серьезных инцидентах государственным органам.
Институты безопасности ИИ: Многонациональный надзор
Чтобы обеспечить независимый и стандартизованный обзор ИИ, страны создали Институты безопасности ИИ:
США и Великобритания создали национальные институты после Саммита по безопасности ИИ 2023 года.
К 2025 году многие страны, включая Японию, Францию, Германию, Италию, Сингапур, Южную Корею, Канаду и ЕС, присоединились к сети для оценки безопасности моделей и установления глобальных стандартов надзора.
Отчеты показывают постоянные разрывы
Институт Будущего Жизни (FLI) оценивает компании по разработке ИИ на уровень D или ниже в плане обеспечения экзистенциальной безопасности; ни одна не получила оценку выше C+. Anthropic занял первое место с оценкой C+, за ним следует OpenAI (C) и Meta (D).
Бывшие сотрудники OpenAI обвиняют компанию в том, что она ставит прибыль выше безопасности, поднимая вопросы прозрачности и этики за закрытыми дверями.
От подростковых барьеров Meta до запрета на лечение в Иллинойсе, до таких компаний, как SSI, интегрирующих безопасность в ИИ, послание ясное: законодательство и предвидение отстают от технологий. Утечка данных, судебные разбирательства и международное внимание демонстрируют, что вред обычно приходит первым. Задача заключается не только в разработке лучшего ИИ, но и в том, чтобы каждая новая разработка защищала людей до того, как произойдет катастрофа.