InicioAIAltman defiende a Anthropic mientras la asociación de OpenAI con el Pentágono...

Altman defiende a Anthropic mientras la asociación de OpenAI con el Pentágono genera escrutinio sobre su momento y términos

En medio de crecientes tensiones sobre el uso militar de la IA, la asociación entre OpenAI y el Pentágono ha desencadenado un intenso debate sobre ética, tiempo y presión gubernamental.

Altman admite que el lanzamiento fue apresurado y mal planteado

Sam Altman ha admitido que OpenAI manejó mal la presentación pública de su nueva colaboración con el Pentágono. En un mensaje de estilo interno publicado en X, escribió que la compañía «no debería haber apresurado» el anuncio del acuerdo con el Departamento de Defensa.

Altman dijo que la dirección había intentado calmar una confrontación en escalada con el gobierno de EE.UU. Sin embargo, reconoció que el resultado «parecía oportunista y descuidado» y no logró transmitir la intención de la compañía de limitar los usos dañinos de su tecnología.

La asociación se reveló el viernes, solo horas después de que el presidente Donald Trump ordenara a las agencias federales detener el uso de los sistemas de Anthropic de inteligencia artificial. Además, el anuncio se produjo poco antes de las operaciones militares de EE.UU. contra Irán, agudizando las críticas públicas sobre el momento elegido.

La reacción se propagó rápidamente en las redes sociales, donde muchos usuarios acusaron a OpenAI de explotar una represión política contra un rival. Numerosos comentaristas afirmaron estar eliminando cuentas de ChatGPT y cambiando al modelo Claude de Anthropic en protesta.

Los cambios en el contrato se centran en la vigilancia doméstica y los límites de inteligencia

En respuesta, OpenAI está trabajando ahora con funcionarios del Departamento de Defensa para revisar el acuerdo. El objetivo, dijo Altman, es incorporar las directrices éticas de OpenAI directamente en el lenguaje legalmente vinculante en lugar de depender de compromisos de política informales.

Una nueva cláusula clave establece que «el sistema de IA no se utilizará intencionalmente para la vigilancia doméstica de personas y nacionales de EE.UU.» Esta explícita prohibición de vigilancia doméstica está destinada a abordar las preocupaciones sobre libertades civiles planteadas por críticos de los despliegues militares de IA.

Los funcionarios de defensa también han confirmado que el sistema cubierto por el contrato del departamento de defensa no será desplegado por servicios de inteligencia de EE.UU. como la NSA. Sin embargo, Altman aclaró que cualquier uso futuro por parte de agencias de inteligencia requeriría un contrato separado y negociaciones adicionales.

Dicho esto, Altman insistió en que la asociación entre OpenAI y el Pentágono tiene como objetivo restringir los usos de alto riesgo mientras permite aplicaciones relacionadas con la defensa que cumplan con la ley de EE.UU. y las propias normas de seguridad de la compañía.

La disputa con Anthropic establece el contexto político más amplio

El acuerdo de OpenAI surgió directamente de conversaciones fallidas entre Anthropic y el Departamento de Defensa. Anthropic había presionado por garantías escritas de que sus modelos de IA no apoyarían el espionaje doméstico ni potenciarían sistemas de armas autónomas operando sin supervisión humana significativa.

El viernes, el Secretario de Defensa Pete Hegseth anunció que Anthropic recibiría una designación de amenaza a la cadena de suministro después de que las negociaciones colapsaran. Además, se informó que funcionarios gubernamentales habían pasado meses criticando el fuerte énfasis de Anthropic en la seguridad de la IA, argumentando que restringía la flexibilidad en el campo de batalla.

La ruptura se hizo pública cuando se reveló que el sistema Claude de Anthropic había sido utilizado en una operación militar en enero dirigida contra el presidente venezolano Nicolás Maduro. Anthropic no desafió abiertamente ese despliegue en ese momento, lo que más tarde alimentó preguntas sobre la consistencia de sus políticas internas.

A pesar de la posterior ruptura, Anthropic se había convertido previamente en la primera empresa de IA en desplegar modelos dentro de la infraestructura clasificada segura del Pentágono bajo un acuerdo finalizado el año pasado. Esa historia, argumentan los críticos, hizo que el cambio repentino a una etiqueta de amenaza a la cadena de suministro fuera particularmente impactante.

Altman rechaza la designación de riesgo de Anthropic

Altman utilizó su última declaración de Sam Altman para defender a Anthropic incluso cuando su propia empresa formalizaba su papel con el Pentágono. Dijo que pasó el fin de semana en conversaciones con altos funcionarios, presionándolos para reconsiderar la nueva clasificación.

«Reiteré que Anthropic no debería ser designada como un riesgo para la cadena de suministro, y que esperamos que el Departamento de Defensa les ofrezca los mismos términos que hemos acordado», escribió. Sin embargo, los líderes del Pentágono aún no han mostrado disposición para revertir la designación.

Anthropic fue fundada en 2021 por ex investigadores de OpenAI que se fueron tras disputas internas sobre la dirección estratégica y los casos de uso militar aceptables. La startup ha construido desde entonces su marca en el desarrollo responsable de IA y controles de alineación más estrictos.

Dicho esto, las autoridades de EE.UU. no han abordado públicamente el llamado de Altman por términos iguales, ni han explicado en detalle cómo la nueva etiqueta de cadena de suministro de Anthropic afectará la futura adquisición de IA por parte del gobierno.

Implicaciones para futuros contratos militares de IA

El conflicto subraya las crecientes apuestas políticas en torno a los premios de contratos del departamento de defensa en inteligencia artificial. Las empresas ahora enfrentan presión para equilibrar las oportunidades de negocio contra el riesgo reputacional y las preocupaciones sobre sistemas autónomos letales.

Además, el episodio destaca cómo la redacción de contratos sobre vigilancia, objetivos y exclusión de agencias de inteligencia se ha vuelto central en las negociaciones. La intervención de Altman sugiere que los principales laboratorios de IA pueden cada vez más hacer lobby no solo por sus propios acuerdos, sino también por un trato comparable para sus rivales.

A medida que los debates sobre estándares de seguridad y seguridad nacional se intensifican, la resolución de estas disputas probablemente moldeará cómo el Pentágono estructura las oportunidades de contratos del departamento de defensa para IA avanzada, y qué modelos corporativos de gobernanza ganan influencia a largo plazo en Washington.

En resumen, el lanzamiento apresurado de OpenAI, el estado de riesgo disputado de Anthropic y las restricciones en evolución sobre el uso de vigilancia e inteligencia señalan una nueva fase en cómo el ejército de EE.UU. aborda las asociaciones de IA y la rendición de cuentas.

RELATED ARTICLES

Stay updated on all the news about cryptocurrencies and the entire world of blockchain.

Featured video

LATEST