Anthropic vs Pentágono

Anthropic vs. el Pentágono:

cuando la ética choca con el poder militar (y nadie quiere ceder)

La inteligencia artificial ya no es solo código y servidores humeantes en Silicon Valley. Se convirtió en un activo geopolítico de primer orden, y el pulso actual entre Anthropic y el Departamento de Defensa de Estados Unidos lo demuestra con crudeza.

Hace unos días estalló la noticia: el Pentágono (o “Departamento de Guerra”, como lo rebautizaron en la era Trump) está a un paso de cortar lazos con Anthropic y hasta considerar declararla un “riesgo para la cadena de suministro”.

¿El motivo? La empresa detrás de Claude se niega a quitarle los frenos éticos a su modelo para usos militares sin restricciones.

Estamos hablando de un contrato cercano a los 200 millones de dólares, firmado el año pasado, que permitía integrar Claude en redes clasificadas del ejército estadounidense. Hoy es el único gran modelo disponible ahí.

Anthropic trazó líneas rojas claras: nada de armas autónomas sin intervención humana y nada de vigilancia masiva contra ciudadanos estadounidenses.

El Pentágono, en cambio, exige poder usar la herramienta para “todos los propósitos legales”, lo que incluye inteligencia, operaciones en campo, desarrollo de armamento y más.

La tensión escaló tras filtrarse que Claude, vía partnership con Palantir, habría apoyado la operación para capturar a Nicolás Maduro en Venezuela. Cuando Anthropic pidió detalles, el malestar fue inmediato.

El argumento del Pentágono

Desde Defensa el razonamiento es brutalmente pragmático: en un mundo donde China y otros rivales invierten sin frenos en IA militar, quedarse atrás por “delicadezas éticas” es inaceptable.

Con un presupuesto anual superior a los 800 mil millones de dólares, el aparato militar estadounidense no piensa pedir permiso a Silicon Valley para sostener la supremacía tecnológica.

La postura de Anthropic

Dario Amodei, CEO de Anthropic, sostiene que la IA puede apoyar la defensa nacional “en casi todo, menos en lo que cruce ciertas líneas rojas”.

Es coherente con su identidad de IA responsable y su modelo de Constitutional AI. No quieren repetir el escándalo de Google con Project Maven en 2018.

Mi opinión

Anthropic está haciendo lo correcto al plantarse, aunque sea arriesgado.

Que una empresa privada pueda decirle “no” al aparato militar más poderoso del planeta es un recordatorio saludable de que la tecnología no pertenece exclusivamente al Estado.

Pero también sería ingenuo pensar que el Pentágono va a ceder fácilmente. Si Anthropic se mantiene demasiado rígida, irán con OpenAI, Google, xAI o desarrollarán modelos propios.

Cuando la ética choca con la “seguridad nacional”, casi siempre pierde la ética… a menos que alguien tenga el coraje (y el músculo financiero) de no ceder.

Este choque es una radiografía del momento histórico que vivimos: la IA ya es infraestructura crítica de seguridad nacional, y las startups que la desarrollan se convirtieron en actores geopolíticos indirectos.

Desde Córdoba, uno no puede evitar pensar que estas discusiones también deberían llegar a nuestras latitudes. La carrera armamentística en IA no entiende de hemisferios.

¿Podrá una compañía imponer estándares éticos duraderos cuando su tecnología se vuelve estratégica? La respuesta se está escribiendo ahora mismo.

¿Qué opinás vos?

¿Debería Anthropic aflojar o aguantar? Me interesa leerlos 👇

Comentarios

Entradas más populares de este blog

Sistematicemos el Negocio: El Poder de la Gerencia Inteligente y el Asesor Informático en la Era de la IA

"¿Adiós a las conversaciones eternas? WhatsApp estrena resumidor de IA: Así funciona y qué tan seguro es en 2025"

Alerta de seguridad: extensión maliciosa en Chrome