Як компанії борються зі зловживаннями штучного інтелекту

Коротко

Інтеграція штучного інтелекту в повсякденне життя викликає занепокоєння щодо безпеки. Компанії, уряди та альянси заповнюють цю прогалину, вирішуючи питання функціонування, викликаючи занепокоєння та маючи недоліки.

Як компанії борються з темною стороною ШІ

Штучний інтелект стає все більш інтегрованим у наше повсякденне життя, від чат-ботів, які надають емоційну підтримку, до алгоритмів, що максимізують комерцію, і його занепокоєння стають дедалі очевиднішими. Проблеми вже не стосуються "якщо", а скоріше "хто" і "як" керуватиме ШІ до безпеки.

Компанії, уряди та багатонаціональні альянси поступово заповнюють цю прогалину, іноді реактивно, іноді жорстко. Ось короткий огляд того, що працює, що викликає занепокоєння і чого все ще бракує.

Технічні титани посилюють контроль

Meta додає обмеження для підлітків

У відповідь на громадське та політичне обурення, Meta пообіцяла посилити свої запобіжники штучного інтелекту:

Тепер його чат-боти відмовлятимуться обговорювати самопошкодження, самогубство чи проблеми з харчуванням у підлітків, натомість направляючи їх до фахівців з психічного здоров'я.

Це є частиною більшої ініціативи "рахунки для підлітків" у Facebook, Instagram та Messenger, яка має на меті забезпечити більш безпечний досвід та підвищити обізнаність батьків, включаючи можливість знати, з якими ботами діти взаємодіяли протягом попереднього тижня.

Критики стверджують, що ці кроки давно назрілі, особливо з урахуванням витоків даних, які вказують на те, що боти могли вести незручні "сенсуальні" розмови з дітьми. "Серйозне тестування безпеки має проводитися перед виходом продуктів на ринок, а не заднім числом", - попередив один з адвокатів.

Meta відмовляється від добровільного кодексу ШІ ЄС

Європейський Союз випустив добровільний Кодекс практики, щоб допомогти розробникам ШІ узгодити свою роботу з його Актом про ШІ. Meta відмовилася підписати, назвавши це бюрократичним перевищенням повноважень, яке загрожує гальмуванням інновацій.

Співпраця з урядом США

OpenAI та Anthropic погодилися ділитися своїми моделями ШІ з Інститутом безпеки ШІ США як до, так і після публікації. Ідея полягає в отриманні рекомендацій з безпеки та зменшенні ризиків через урядову перевірку.

У серпні 2025 року 44 генеральних прокурори США підписали спільний лист, закликаючи ключові компанії в сфері ШІ, включаючи Meta, OpenAI, Microsoft, Google та Replika, краще захищати неповнолітніх від хижих матеріалів ШІ.

Іллінойс забороняє ШІ як терапію

Іллінойс став одним з перших штатів, які заборонили використання чат-ботів на базі штучного інтелекту в якості терапії, якщо це не контролюється сертифікованим фахівцем. Невада та Юта впровадили аналогічні обмеження. Порушники можуть зіткнутися з цивільними штрафами до 10 000 доларів.

Глобальні законодавчі рамки

Регулювання розвивається по всьому світу, від Акту про штучний інтелект ЄС до Закону про захист даних Індії та вимог безпеки Південної Кореї. Зростаюча кількість штатів США впроваджує законодавство, специфічне для штучного інтелекту, або розширює існуючі рамки, такі як захист прав споживачів, прозорість алгоритмів та аудити упереджень.

Сенатор Вініер з Каліфорнії запропонував законодавство, яке зобов'язує великі AI-компанії публічно розкривати свої практики безпеки та повідомляти про значні інциденти державним органам.

Інститути безпеки ШІ: Міжнародний нагляд

Щоб забезпечити незалежний та стандартизований огляд ШІ, країни створили Інститути безпеки ШІ:

США та Великобританія створили національні інститути після Саміту з безпеки ШІ 2023 року.

До 2025 року багато країн приєдналися до мережі, в тому числі Японія, Франція, Німеччина, Італія, Сінгапур, Південна Корея, Канада та ЄС, щоб оцінити безпеку моделей і встановити глобальні стандарти нагляду.

Звіти виявляють постійні прогалини

Інститут майбутнього життя (FLI) оцінює компанії ШІ на D або нижче за планування екзистенційної безпеки; жодна не отримала вище C+. Anthropic отримала C+, за нею йдуть OpenAI (C) та Meta (D).

Колишні працівники OpenAI звинувачують компанію в пріоритеті прибутку над безпекою, піднімаючи питання прозорості та етики за закритими дверима.

Від підходів Meta до охорони підлітків до заборони лікування в Іллінойсі, до компаній, таких як SSI, які інтегрують безпеку в ШІ, повідомлення зрозуміле: законодавство та передбачення відстають від технологій. Витік даних, судові позови та міжнародна перевірка демонструють, що шкода зазвичай приходить першою. Завдання полягає не лише в розробці кращого ШІ, але й у забезпеченні того, щоб кожен прорив захищав людей до того, як станеться катастрофа.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити