Publicidad
Publicidad

Mundo > Tecnología y programa bélico

Caso Open AI y Anthropic: El riesgo de utilizar la IA para fines militares

El CEO de la compañía, Darío Amodei, señaló que “No podemos, con conciencia, acceder a su solicitud” ante el secretario de guerra Pete Hegseth de Estados Unidos. El peligro de usar tecnología generativa para fines militares.

POR REDACCIÓN

Hace 2 horas
Finalmente, el acuerdo entre el gobierno federal y la empresa fracasó y con este veto, la otra carta que se puso en la mesa es la de Open AI.

Ante la última oferta por un contrato millonario que hizo el Pentágono para utilizar IA generativa de la empresa Anthropic para un programa con fines bélicos, el CEO de la compañía Darío Amodei rechazó el vínculo y eso trajo la furia del gobierno de Estados Unidos por tal negación a aceptar el acuerdo.

El problema de fondo es el propósito que quiere el Departamento de Guerra de Estados Unidos para utilizar el modelo de IA para vigilancia masiva y armas totalmente automatizadas.

Publicidad

Pete Hegseth, secretario de guerra, declaró que si la compañía no permite que su modelo de IA se utilice “para todos los fines legales”, el Pentágono cancelaría el contrato de US$ 200 millones de Anthropic. Además de la cancelación del contrato, Anthropic sería considerada un “riesgo para la cadena de suministro”, una clasificación normalmente reservada para empresas vinculadas a adversarios extranjeros, según informaron funcionarios del Pentágono.

Por su parte, la compañía tecnológica en cuestión declaró en un comunicado que el nuevo lenguaje del Pentágono se presentó como un compromiso, pero “se combinó con jerga legal que permitía ignorar esas salvaguardias a voluntad”.

Publicidad

En una extensa entrada de blog el jueves, Amodei escribió: “Creo profundamente en la importancia existencial de usar la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos”.

Amodei afirmó que Anthropic entiende que es el Pentágono, “y no las empresas privadas, (el que) toma decisiones militares”. Sin embargo, “en un conjunto limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos”. También afirmó que casos de uso como la vigilancia masiva y las armas autónomas están “fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable”.

Publicidad

Por lo tanto, Amodei afirmó que las amenazas del Pentágono no cambian su postura: “No podemos acceder a su solicitud con conciencia”.

En respuesta, Emil Michael, subsecretario de Investigación e Ingeniería del Pentágono, quien participó en las negociaciones, escribió en X: “Es una pena que @DarioAmodei sea un mentiroso y tenga complejo de Dios. Solo desea controlar personalmente a las Fuerzas Armadas de EE.UU. y no le importa poner en riesgo la seguridad de nuestra nación. El @DeptofWar (Departamento de Guerra) SIEMPRE cumplirá la ley, pero no se doblegará a los caprichos de ninguna empresa tecnológica con fines de lucro”.

Tras la publicación de Amodei, el personal de Anthropic comenzó a expresar públicamente su apoyo a su empleador.

“Durante mis tres años en Anthropic, he visto repetidamente cómo defendemos nuestros valores de maneras que a menudo son invisibles desde fuera. Este es un claro ejemplo de ello”, escribió Trenton Bricken, miembro del equipo técnico de alineación de Anthropic, en X.

Sin embargo, lo contradictorio de este asunto es que las mismas autoridades estadounidenses aseguraron que no hay interés por parte del gobierno de utilizar esta inteligencia artificial para fines de espionaje o bélicos.

Sean Parnell, el principal portavoz del Pentágono, escribió  en redes sociales que los militares “no tienen ningún interés en usar la IA para realizar vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar la IA para desarrollar armas autónomas que operen sin participación humana”.

Las políticas de Anthropic impiden que sus modelos se utilicen con esos fines. Es la más reciente entre sus pares —el Pentágono también tiene contratos con Google, OpenAI y xAI de Elon Musk— en no suministrar su tecnología a una nueva red militar interna de Estados Unidos.

“Es prerrogativa del Departamento (de Defensa) seleccionar a los contratistas más alineados con su visión”, escribió Amodei en un comunicado. “Pero dado el valor sustancial que la tecnología de Anthropic proporciona a nuestras fuerzas armadas, esperamos que lo reconsideren”.

El secretario de Defensa, Pete Hegseth, le dio a Anthropic un ultimátum después de reunirse con Amodei: abrir su tecnología de inteligencia artificial para un uso militar sin restricciones para el viernes, o arriesgarse a perder su contrato gubernamental.

Además, los funcionarios militares advirtieron que podrían ir aún más lejos y designar a la empresa como un riesgo para la cadena de suministro, o invocar una ley de la era de la Guerra Fría, llamada Ley de Producción para la Defensa, con el fin de otorgar a las fuerzas armadas una autoridad más amplia para usar sus productos.

Parnell indicó que el Pentágono quiere “usar el modelo de Anthropic para todos los fines lícitos”, pero no ofreció detalles sobre lo que eso implica. Sostuvo que abrir el uso de la tecnología evitaría que la empresa “ponga en riesgo operaciones militares cruciales”.

 

Acuerdo con Open AI


Finalmente, el acuerdo entre el gobierno federal y la empresa fracasó y con este veto, la otra carta que se puso en la mesa es la de Open AI.

En este sentido, la compañía fundada por Sam Altman, sí logró el acuerdo estratégico con el Pentágono para desplegar sus modelos de inteligencia artificial en sistemas militares clasificados.

Este movimiento posiciona a OpenAI como un socio tecnológico clave para aplicaciones de seguridad nacional, abriendo un nuevo segmento de mercado para startups de IA que buscan contratos gubernamentales de alto valor.

Con lo cual fue un giro sorprendente, Donald Trump ordenó a las agencias federales suspender el uso de la tecnología de Anthropic, el principal competidor de OpenAI en el mercado de IA empresarial. Esta decisión, que fue anunciada horas antes del acuerdo de OpenAI con el Pentágono, redistribuye dramáticamente el panorama competitivo en el sector de IA gubernamental.

La orden ejecutiva representa un punto de inflexión para Anthropic, que había estado compitiendo activamente por contratos con múltiples departamentos federales. Para founders de startups tecnológicas, este caso ilustra cómo las decisiones políticas pueden alterar rápidamente las dinámicas de mercado, especialmente en sectores regulados o con alta presencia gubernamental.

Sin embargo, el riesgo es muy alto cuando una tecnología esté al servicio de fines militares donde redefinirá posiblemente los parámetros de una guerra convencional.

 

 

Publicidad
Publicidad
Más Leídas
Publicidad
Publicidad

ÚLTIMAS NOTICIAS