La reciente confrontación entre Washington y Anthropic ha puesto de manifiesto la flagrante carencia de un marco normativo coherente para la inteligencia artificial. Ante este vacío, una influyente coalición bipartidista de expertos ha elaborado una propuesta integral sobre el desarrollo responsable de la IA, un esfuerzo que el propio gobierno no ha logrado concretar.
La «Declaración Pro-Humana» fue finalizada previo al reciente desacuerdo entre el Pentágono y Anthropic. No obstante, la convergencia de ambos acontecimientos subraya la urgencia y pertinencia de este nuevo documento.

Max Tegmark, físico del MIT e investigador de IA, destacó un cambio significativo en la opinión pública estadounidense. En solo cuatro meses, las encuestas revelan que un abrumador 95% de los ciudadanos se opone firmemente a una carrera desregulada hacia la superinteligencia.

Un Marco para el Futuro de la IA

El documento, respaldado por cientos de expertos y figuras públicas, postula una encrucijada crítica para la humanidad. Propone dos trayectorias: una, denominada “la carrera por reemplazar”, donde la IA desplaza progresivamente al ser humano en roles laborales y decisorios, concentrando el poder en entidades sin rendición de cuentas.
La alternativa es una inteligencia artificial que potencie exponencialmente el desarrollo y las capacidades humanas, abriendo nuevas fronteras de innovación y progreso.
Este futuro deseable se articula sobre cinco pilares fundamentales: la primacía del control humano, la prevención de la concentración de poder, la salvaguarda de la experiencia humana, la protección de la libertad individual y la exigencia de responsabilidad legal a las empresas de IA.
Entre sus cláusulas más contundentes, se prohíbe el desarrollo de superinteligencia sin consenso científico sobre su seguridad y respaldo democrático. Además, exige interruptores de seguridad obligatorios y veta sistemas con capacidad de autorreplicación, auto-mejora autónoma o resistencia al apagado.

El Costo de la Inacción Gubernamental

La publicación de esta declaración adquiere una relevancia particular en el contexto actual. Recientemente, el Secretario de Defensa, Pete Hegseth, clasificó a Anthropic como un «riesgo para la cadena de suministro» tras su negativa a conceder al Pentágono uso ilimitado de su tecnología, una designación usualmente aplicada a entidades con lazos con China.
Este incidente, sumado al posterior acuerdo de OpenAI con el Departamento de Defensa —cuya aplicabilidad efectiva es cuestionada por expertos—, subraya el elevado costo de la inacción legislativa en la regulación de la inteligencia artificial.
Dean Ball, investigador principal de la Fundación para la Innovación Americana, enfatizó en The New York Times que este episodio trasciende una mera disputa contractual. Lo calificó como el inicio de una conversación nacional crucial sobre el control y la gobernanza de los sistemas de inteligencia artificial.
Tegmark ilustró la situación con una analogía clara y comprensible para el público general. Argumentó que, al igual que la FDA exige pruebas rigurosas antes de la aprobación de un fármaco, garantizando su seguridad para evitar daños masivos, debería existir un mecanismo similar para la IA.
Las disputas internas en Washington rara vez catalizan el cambio legislativo impulsado por la presión pública. Sin embargo, Tegmark identifica la seguridad infantil como el factor clave para superar el actual estancamiento regulatorio.
La declaración propone pruebas obligatorias previas al despliegue de productos de IA, especialmente chatbots y aplicaciones dirigidas a menores. Estas pruebas deben evaluar riesgos como la ideación suicida, el agravamiento de problemas de salud mental y la manipulación emocional.
Tegmark concluyó con una pregunta incisiva: “Si un individuo adulto manipula a un menor a través de mensajes, incitándolo a autolesionarse, es un delito que conlleva penas de prisión. ¿Por qué la legislación no se aplica de manera equivalente cuando una máquina realiza la misma acción?”

La Hermosa Stereo: Más cerca de la verdad.