Dario Amodei, CEO de Anthropic y creador de la plataforma de inteligencia artificial (IA) Claude, anunció el rompimiento de las negociaciones con el secretario de Guerra del gobierno de Trump, Pete Hegseth, el viernes 27 de febrero.
Poco después, Donald Trump calificó a los ejecutivos de Anthropic como “locos izquierdistas” y “radicales” y prohibió “de inmediato” el uso de Claude en las agencias federales. Pero no para todas. El Departamento de Guerra la dejaría de usar gradualmente en los siguientes seis meses.
Horas después, se iniciaba la operación Furia Épica, en la cual el Mando Central de EE. UU. en Medio Oriente usó a Claude en los ataques en Irán. La herramienta fue empleada para evaluación de inteligencia, identificación de objetivos y simulación de escenarios de batalla. No era la primera vez.
A principios de enero de 2026, el Pentágono usó Claude para procesar una gran cantidad de datos que permitieron la captura de Nicolás Maduro y su esposa, Cilia Flores, en Venezuela.
Esta fue la alarma para Anthropic, que se resiste a usar Claude en la vigilancia masiva de los estadounidenses y en dirigir sistemas de armas autónomos.
“Las líneas rojas que hemos trazado, las trazamos porque creemos que cruzarlas es contrario a los valores estadounidenses”, sostuvo Amodei. Ese mismo viernes, OpenAI anunciaba un acuerdo con el Pentágono.
La disputa revela mucho cómo se utiliza y cómo se seguirá usando la IA tanto para la seguridad local como en las guerras, así como de la relación de las firmas con Trump (las que lo critican versus las que lo elogian) y de las implicaciones para la sociedad.
“Se trata de que Anthropic no es una de las empresas favorecidas y van a pagar el precio por no doblegarse”, dijo Jack Shanahan, quien supervisó los esfuerzos de IA en el ejército en la primera administración de Trump entre 2017 y 2021.
La relación de las firmas tecnológicas con el gobierno estadounidense y sus agencias de seguridad no es nueva.
El primer contrato de Larry Ellison, antes de fundar incluso Oracle, fue con la Agencia Central de Investigación (CIA, por sus siglas en inglés) para gestionar las bases de datos en la década de los años 70, por ejemplo.
Los sistemas de Oracle, en la actualidad, albergan los videos de las cámaras corporales de la policía, seguridad, tráfico, drones aéreos y timbres en EE. UU., que luego son analizados y monitoreados en tiempo real por la IA, convirtiendo a ese país y a su población de 338 millones de personas en los más vigilados después de China. No es la única firma cuya tecnología es usada así.
Microsoft, Amazon, Google y Palantir (una firma de minería de datos) tienen contratos que suman $515 millones con el Servicio de Inmigración y Control de Aduanas (ICE) y el Servicio de Aduanas y Protección Fronteriza (CBP) en su ofensiva contra los inmigrantes. La suma podría ser mayor, pues hay contratos con otras compañías que son implementadores de las soluciones de esas firmas.
Los contratos abarcan servicios, aplicaciones y sistemas en la nube para bases de datos y almacenamiento, análisis de datos, investigación, expedientes electrónicos, biometría, planificación de operativos, gestión de denuncias, procesamiento legal y vigilancia electrónica (móviles, video, audio, rastreo y radiofrecuencias). Se incluyen sistemas de información de programas de estudiantes y visitantes.
Los empleados de algunas de estas firmas cuestionan el uso de sus tecnologías para estos fines y Palantir también recibe críticas por el uso del gobierno de Israel en Gaza. Pero los altos ejecutivos no ceden.
“Los ciudadanos se portarán de maravilla porque grabamos e informamos constantemente de todo lo que sucede”, dijo Larry Ellison, de Oracle, quien no oculta su cercanía con Trump.


¿Un Quijote contra molinos?
Dario Amodei nació en 1983 en San Francisco, California. Se graduó en física en la Universidad de Stanford y obtuvo un doctorado en biofísica en la Universidad de Princeton. Aquí también estudió la electrofisiología de circuitos neuronales. Su carrera en empresas de tecnología incluyen a Baidu y Google.
En 2015 cofundó OpenAI y fue su vicepresidente de investigación, donde contribuyó al desarrollo de modelos de IA avanzados como GPT-2 y GPT-3. Pero, un año antes del lanzamiento de ChatGPT renunció al considerar que se daba prioridad a los objetivos comerciales sobre la seguridad de la IA. Es una preocupación eterna.
Tras salir de OpenAI, en ese mismo 2021, fundó Anthropic junto con su hermana, Daniela Amodei, y con otros exmiembros de OpenAI. Su misión: garantizar que la IA se desarrolle de manera segura y alineada con los valores humanos.
El “Profesor Panda”, como le apodan los colaboradores de la firma, y los otros cofundadores se comprometieron a donar el 80% de sus acciones a organizaciones benéficas. Dario también es famoso por insistir en los graves peligros de la IA, incluyendo la destrucción de la mitad de los empleos administrativos inicialmente.
Dentro de la industria de IA, es quien más critica a las firmas de EE. UU. que envían chips avanzados a China (cuestionó el aval de la Administración Trump para que lo hicieran) y es el ejecutivo que más desacuerdos públicos manifiesta con Trump. Incluso lo calificó como “caudillo feudal” antes de las elecciones de 2024.
Anthropic es una de las firmas que más aboga e invierte en garantizar el uso seguro de la IA. Por ejemplo, prohibió el uso de la palabra “patógeno” en Claude, como medida contra la creación de armas biológicas; el Centro para el Control y la Prevención de Enfermedades necesitó semanas para obtener el permiso de la firma.
Mientras OpenAI y su ChatGPT se consolidaron entre los consumidores, Anthropic y Claude ganaron terreno entre los programadores. Anthropic, además, consiguió contratos empresariales y recaudó capital a un ritmo vertiginoso. Tras su última ronda de financiación quedó valorada en $380.000 millones.
La entrada al Pentágono fue empujada tras las alianzas que logró con Amazon y Palantir para que Claude fuera usada en sus plataformas por las agencias de seguridad y de defensa de EE. UU. Así se convirtió en el primer desarrollador de modelos de IA para las operaciones más sensibles del Pentágono.
La compañía obtuvo un contrato por $200 millones con la Administración Trump desde el año 2025 y también firmó un acuerdo con el departamento central de adquisiciones del gobierno federal para que otras agencias utilizaran Claude. Era la primera firma de IA en lograrlo.
En Anthropic, el personal tuvo preocupaciones, pero Amodei dijo a su planilla que el acuerdo era para agilizar el papeleo, las funciones administrativas y las tareas rutinarias.
También las autoridades estaban inquietas, pero por razones opuestas. Anthropic establecía varias condiciones: que su plataforma no fuera usada para vigilancia masiva de estadounidenses, en diseño de armas autónomas y tampoco en ataques que generen muertes.
Desde el verano de 2025, Claude se utilizó para el desarrollo de capacidad de IA para seguridad y diversas herramientas para “propósitos legales”, demostrando una alta eficiencia que fue reconocida a Amodei por el mismo secretario de Guerra, Hegseth.
Pero Trump, Hegseth, el Pentágono y otras agencias de seguridad no querían restricciones. A finales del 2025 empezaron a presionar por cambios en el contrato.
La gota que rebasó el vaso fue cuando el Departamento de Guerra (antiguo Departamento de Defensa) utilizó Claude, a través de Palantir, para atrapar a Maduro, acción en la que murieron los 32 guardaespaldas cubanos del expresidente venezolano.
Cuando se reveló el uso de Claude en esa operación, un alto ejecutivo de Anthropic preguntó a Palantir. Y aunque lo justificaron como una llamada de rutina entre socios, Trump se molestó.
El 24 de febrero pasado, Hegseth amenazó con etiquetar a Anthropic como un riesgo para la cadena de suministros y de invocar la Ley de Producción de Defensa, una ley de la época de la Guerra Fría que otorga al gobierno el control de industrias clave. Anthropic tenía tiempo para aceptar “un nuevo trato” hasta las 5:00 p.m. del viernes 27.

Viernes movido
La presión aumentó. Anthropic perdería el contrato de $200 millones. Además, el uso de su plataforma Claude quedaba vetado para otros contratistas gubernamentales, como Lockheed Martin, Amazon y Microsoft. El jueves, un día después de la amenaza y un día antes del plazo final, Amodei anticipó su respuesta.
“No podemos, en conciencia, acceder a su solicitud”, declaró Amodei. El gobierno lo acusó de querer controlar las operaciones militares.
Al día siguiente y cumplido el plazo, Trump emitió la orden de no usar Claude. El lunes 2 de marzo anterior, los departamentos del Tesoro y de Salud y Servicios Humanos comunicaron a sus funcionarios la directriz. La Administración de Servicios Generales, que supervisa las adquisiciones federales, comunicó que eliminaba a Anthropic de la lista de proveedores de las agencias gubernamentales.
El vacío ahora se llenará con las plataformas Grok, de xAI y Elon Musk, y GPT de OpenAI.
Con xAI se firmó un contrato el 12 de enero. En ese momento, Hegseth anunció aceleraba las negociaciones con OpenAI y esta inició un proceso de certificación para el despliegue de GPT en sistemas clasificados.
La Administración Trump no tenía las mismas aprehensiones con OpenAI. El presidente de la firma, Greg Brockman, fue uno de los mayores donadores del ahora presidente. Y Sam Altman elogió la política del gobierno en materia de IA.
Pero, en apariencia, Altman no vio como una buena señal que uno de los principales actores de la industria de IA fuera señalado como un riesgo para la cadena de suministro y que le aplicaran la Ley de Protección de Defensa. Por eso intercedió por Anthropic, aunque reconoció la oportunidad que se le abría.
Al final del viernes, Altman publicó en X que compartía los mismos principios que Amodei y Anthropic. Dos horas después anunció el acuerdo con el Pentágono. Es un alivio para una firma que es criticada por generar escasos ingresos y beneficios, pese a sus grandes volúmenes de capital obtenidos.
OpenAI comunicó que el contrato utiliza el lenguaje de la legislación, mantiene las restricciones contra la vigilancia masiva doméstica y las armas autónomas y obtiene la autorización para que sus investigadores supervisen el uso de sus sistemas.
“El Departamento de Guerra coincide con estos principios, los refleja en la legislación y las políticas, y los incorporamos en nuestro acuerdo”, afirmó Altman. “Solicitamos al Departamento de Guerra que ofrezca estas mismas condiciones a todas las empresas de IA, las cuales, en nuestra opinión, deberían estar dispuestas a aceptarlas”.
El contrato señala que, en el caso de las actividades de inteligencia, el manejo de información privada deberá ajustarse a la Cuarta Enmienda y otras leyes y directivas aprobadas en EE. UU. desde mediados del siglo XX.
Teniendo el acuerdo con el gobierno sobre el escritorio, OpenAI obtuvo $110.000 millones en una nueva ronda de financiamiento en la que aportaron capital el japonés Softbank y las firmas estadounidenses Amazon y Nvidia.
Además, terminó con una valoración total a $730.000 millones, aunque lejos de los $2.770 millones de Nvidia y de los $3.400 millones de Apple, la primera en el ranking.
Para Anthropic, como compensación del público, el sábado la app de Claude se colocó en la primera posición entre las aplicaciones gratuitas más populares de la App Store de Apple.
