Tecnología Rocío Reija-Directora Marketing Digital 25/02/2026

Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum

 
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.

Anthropic se encuentra en el centro de una disputa sin precedentes con el aparato militar estadounidense. El CEO Dario Amodei se reunió este martes con el secretario de Defensa Pete Hegseth y rechazó flexibilizar las restricciones que impiden al ejército utilizar Claude para ataques autónomos o vigilancia masiva de ciudadanos. El Pentágono respondió con un ultimátum: si la compañía no cede antes del viernes, activará mecanismos legales de emergencia que podrían comprometer contratos por hasta 200 millones de dólares.


Qué exige el Pentágono y qué límites fija Amodei

Durante el encuentro del martes, Amodei expuso con precisión las condiciones de Anthropic: el ejército estadounidense debe abstenerse de emplear sus productos para identificar y atacar de forma autónoma a combatientes enemigos o para ejecutar vigilancia masiva sobre la población civil norteamericana. El CEO subrayó que ninguno de esos escenarios se ha materializado en operaciones reales hasta la fecha.

El Departamento de Defensa respondió que sus fuerzas siempre operan dentro del marco legal vigente y que toda decisión operativa involucra supervisión humana directa. Los funcionarios militares insistieron en que esas garantías deberían ser suficientes para que Anthropic levante las restricciones.

Te puede interesar

EMAE diciembre 2025: creció 3,5% pero tres sectores explican casi todo el avance

La Ley de Producción de Defensa de 1950: la amenaza de fondo

El instrumento legal que el Pentágono amenaza con activar data de la era de la Guerra Fría. La Ley de Producción de Defensa de 1950 faculta al gobierno federal para obligar a empresas privadas estadounidenses a entregar productos o servicios considerados esenciales para la seguridad nacional. Presidentes anteriores la utilizaron para gestionar crisis energéticas, incluyendo la renovación forzosa de petroleros en los años sesenta y la reasignación de suministros de crudo al ejército durante la década siguiente.

De aplicarse contra Anthropic, el impacto sería doble: la compañía perdería el control sobre el uso de Claude en operaciones militares y, adicionalmente, otros proveedores de defensa quedarían inhabilitados para adquirir sus productos, obligados a certificar que no los utilizan en ninguna etapa de su cadena de suministro.

Te puede interesar

Trump en el Congreso: "Era dorada" para EEUU, amenaza a Irán y choque con la Corte Suprema

El detonante: Venezuela, Maduro y las dudas sobre una operación de fuerzas especiales

La tensión entre ambas partes escaló semanas después de que el Pentágono publicara su nueva estrategia de inteligencia artificial, que exige transformar al ejército en una fuerza prioritaria en IA y eliminar restricciones de política de uso que limiten aplicaciones militares legales. Sin embargo, el detonante concreto fue otro.

Funcionarios del Departamento de Defensa afirmaron haberse enterado de que Anthropic albergaba dudas sobre el empleo de su tecnología durante la operación de fuerzas especiales de enero que resultó en la captura del presidente venezolano Nicolás Maduro. La compañía rechazó esa versión: "Anthropic no debatió el uso de Claude para operaciones específicas con el Departamento de Guerra, ni expresó preocupaciones más allá de conversaciones técnicas rutinarias", señaló un portavoz.

Te puede interesar

Déficit de servicios 2025: el agujero de u$s11.000 millones que consumió el superávit comercial argentino

Flexibilización de la política de seguridad: el otro movimiento de Anthropic

Paradójicamente, mientras mantiene el pulso con el Pentágono, Anthropic anunció esta semana una modificación relevante en su política central de seguridad. En 2023, la empresa había comprometido públicamente en su Política de Escalado Responsable que retrasaría el desarrollo de sistemas de IA potencialmente peligrosos. La actualización publicada este martes establece que ese compromiso ya no aplicará cuando la compañía evalúe que no posee una ventaja significativa sobre sus competidores.

La justificación es estratégica: "El entorno político viró hacia la priorización de la competitividad en IA y el crecimiento económico, mientras que los debates centrados en seguridad aún no ganaron impulso federal significativo", explicó la empresa en su comunicado. Una portavoz añadió que desde el inicio la compañía advirtió que la rapidez del sector requeriría actualizar y mejorar las políticas con agilidad.

Te puede interesar

Dólar en mínimos de cinco meses: por qué la calma cambiaria puede durar

Claude en expansión: finanzas, salud y Wall Street como nuevos territorios

Más allá del conflicto con el aparato militar, Claude avanza aceleradamente en sectores privados. Servicios financieros, atención médica y seguros están entre los mercados donde la herramienta registra mayor tracción. Los nuevos complementos empresariales personalizados prometen redefinir procesos operativos y tareas profesionales, con impacto directo sobre Wall Street en las últimas semanas.

Anthropic desarrolló Claude Gov específicamente para aplicaciones de seguridad nacional estadounidense, buscando atender a clientes gubernamentales sin resignar sus límites éticos propios. La compañía, valorada actualmente en 380.000 millones de dólares, compite de frente con OpenAI, Google y xAI de Elon Musk en una carrera tecnológica que muchos analistas consideran la más disruptiva de las últimas décadas.

Te puede interesar

Cavallo Vuelve al Ruedo: Pide Convertibilidad del Peso y Advierte que el Atraso Cambiario Tiene un Precio que Argentina Pagará Más Adelante

Por Rocío Reija — Directora de Marketing Digital | 13News.info | 25 de febrero de 2026 

Te puede interesar

GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma

El nuevo sistema integra razonamiento avanzado, codificación y agentes autónomos con capacidad para ejecutar flujos de trabajo complejos sin intervención humana, con un contexto de un millón de tokens. 

Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso

OpenAI admitió que su acuerdo con el Departamento de Defensa fue "oportunista", mientras demócratas prometen legislación para proteger a empresas que marquen límites éticos al uso militar de la inteligencia artificial.

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.

Robots humanoides en la industria automotriz: USD 20.000 millones de Tesla, la ofensiva china y por qué tu próximo auto podría fabricarlo una máquina bípeda

De Honda Asimo a Tesla Optimus: los fabricantes de vehículos abandonan la ciencia ficción y entran en producción masiva de humanoides. El mercado proyectado alcanza los USD 5 billones en 2050. Quién lidera, quién amenaza y qué significa para la cadena productiva global.

Gigantes tecnológicos destinarán US$ 650.000 millones a IA en 2026: ¿burbuja o revolución?

Alphabet, Amazon, Meta y Microsoft aceleran la carrera armamentística por centros de datos mientras Wall Street cuestiona la rentabilidad del gasto masivo. Nvidia lidera el suministro de chips y su CEO habla de una "construcción única en una generación".