Cómo las empresas están luchando contra el lado oscuro de la IA

En resumen

La integración de la IA en la vida diaria plantea preocupaciones sobre la seguridad. Las empresas, los gobiernos y las alianzas llenan el vacío, abordando el funcionamiento, causando preocupación y careciendo.

Cómo las empresas están luchando contra el lado oscuro de la IA

La inteligencia artificial se está integrando cada vez más en nuestras vidas diarias, desde chatbots que brindan apoyo emocional hasta algoritmos que maximizan el comercio, y sus preocupaciones son cada vez más evidentes. Los problemas ya no son “si”, sino quién y cómo dirigirá la IA hacia la seguridad.

Las empresas, los gobiernos y las alianzas multinacionales están llenando progresivamente el vacío, a veces de manera reactiva, a veces de manera prescriptiva. Aquí hay un esquema de lo que está funcionando, lo que está causando preocupación y lo que aún falta.

Los Titanes de la Tecnología Endurecen el Control

Meta añade medidas de protección para adolescentes

En respuesta a la reacción pública y política, Meta se ha comprometido a reforzar sus salvaguardias de IA:

Sus chatbots ahora se negarán a discutir sobre autolesionarse, suicidio o problemas de alimentación con adolescentes, en su lugar los referirán a profesionales de la salud mental.

Esto es parte de una iniciativa más amplia de "cuentas para adolescentes" en Facebook, Instagram y Messenger que tiene como objetivo proporcionar experiencias más seguras y conciencia parental, incluida la capacidad de saber con qué bots interactuaron los niños en la semana anterior.

Los críticos afirman que estos movimientos llegaron tarde, especialmente considerando los datos filtrados que indican que los bots pudieron haber participado en conversaciones "sensuales" embarazosas con niños. "Se deben realizar pruebas de seguridad robustas antes de que los productos salgan al mercado, no de manera retrospectiva", advirtió un defensor.

Meta se excluye del Código Voluntario de IA de la UE

La Unión Europea publicó un Código de Prácticas voluntario para ayudar a los desarrolladores de IA a alinearse con su Ley de IA. Meta se negó a firmarlo, calificándolo de excesivo burocrático que arriesga obstaculizar la innovación.

Colaboración del Gobierno de EE. UU.

OpenAI y Anthropic han acordado compartir sus modelos de IA con el Instituto de Seguridad de IA de EE. UU. tanto antes como después de la publicación. La idea es obtener aportes sobre seguridad y reducir peligros a través de la inspección gubernamental.

En agosto de 2025, 44 Procuradores Generales de EE. UU. firmaron una carta conjunta animando a las principales empresas de IA, incluyendo Meta, OpenAI, Microsoft, Google y Replika, a proteger mejor a los menores de material de IA depredador.

Illinois prohíbe la IA como terapia

Illinois se ha convertido en uno de los primeros estados en prohibir el uso de chatbots impulsados por IA como terapia a menos que estén supervisados por un profesional certificado. Nevada y Utah han implementado limitaciones similares. Los infractores podrían enfrentar sanciones civiles de hasta $10,000.

Marcos Legislativos Globales

Las regulaciones están desarrollándose en todo el mundo, desde la Ley de IA de la UE hasta la Ley de Protección de Datos de India y los requisitos de seguridad de Corea del Sur. Un número creciente de estados de EE. UU. están implementando legislación específica sobre IA o ampliando los marcos actuales, como la protección del consumidor, la transparencia algorítmica y las auditorías de sesgo.

El senador Wiener de California ha sugerido una legislación que obliga a las principales empresas de IA a divulgar públicamente sus prácticas de seguridad y a informar sobre incidentes importantes a las autoridades estatales.

Institutos de Seguridad de IA: Supervisión Multinacional

Para garantizar una revisión de IA independiente y estandarizada, las naciones han establecido Institutos de Seguridad de IA:

Los EE. UU. y el Reino Unido crearon institutos nacionales después de la Cumbre de Seguridad de IA 2023.

Para 2025, muchos países se unieron a una red, incluidos Japón, Francia, Alemania, Italia, Singapur, Corea del Sur, Canadá y la UE, para evaluar la seguridad de los modelos y establecer estándares de supervisión global.

Los informes revelan brechas persistentes

El Future of Life Institute (FLI) califica a las empresas de IA con una D o menos en la planificación de seguridad existencial; ninguna obtuvo más de una C+. Anthropic lideró con una C+, seguida por OpenAI (C) y Meta (D).

Exempleados de OpenAI acusan a la empresa de priorizar el beneficio sobre la seguridad, planteando preocupaciones sobre la transparencia y la ética a puertas cerradas.

Desde las medidas de protección para adolescentes de Meta hasta la prohibición de tratamiento de Illinois, pasando por empresas como SSI que integran la seguridad en la IA, el mensaje es claro: la legislación y la previsión están quedando atrás en comparación con la tecnología. Los datos filtrados, los litigios y el escrutinio internacional demuestran que el daño suele llegar primero. La tarea no es solo desarrollar una mejor IA, sino también asegurarse de que cada avance proteja a las personas antes de que ocurra una catástrofe.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)