El debate público sobre la inteligencia artificial está cada vez más moldeado por dos narrativas principales.
Por un lado, existe la preocupación de que la IA reemplace la mano de obra humana, provocando un desempleo masivo. Por otro, hay una visión tecnoutópica que presenta la IA como solución a todo, desde el estancamiento económico hasta el cambio climático.
Sin embargo, en medio de este debate, podríamos estar pasando por alto un cambio más silencioso. La crisis entre el Pentágono y Anthropic ofrece una oportunidad vital para reconsiderar cómo se percibe esta tecnología. La IA no es simplemente una herramienta civil, sino un instrumento militar y estratégico de poder.
Para comprender el enfoque militar de la IA, resulta útil examinar los orígenes de las tecnologías de comunicación modernas. Contrariamente a la creencia popular, muchas de estas tecnologías no comenzaron inicialmente como proyectos civiles.
El predecesor de internet, ARPANET, fue desarrollado por el Pentágono como una red de defensa diseñada para mantener las comunicaciones durante un ataque nuclear.
Los sistemas de IA actuales llevan trazas de este mismo linaje tecnológico.
Desde esta perspectiva, el interés del Pentágono en la inteligencia artificial no es nuevo. Refleja las raíces históricas de la tecnología.
La historia de la investigación en IA refuerza este argumento. Durante los llamados “inviernos de la IA”, cuando la inversión privada se desaceleró y muchos académicos cuestionaron el futuro del campo, la financiación militar continuó respaldando la investigación.
En la década de 1980, por ejemplo, la Iniciativa de Computación Estratégica lanzada por DARPA bajo el Departamento de Defensa de Estados Unidos desempeñó un papel clave en el avance de la capacidad computacional y las capacidades de focalización de la IA.
La tensión entre el Pentágono y Anthropic
Esta relación de larga data entre la inteligencia artificial y las instituciones de defensa ha resurgido recientemente.
Las tensiones entre el Pentágono y Anthropic revelan cuán frágil puede ser la retórica del sector tecnológico en torno a una “IA segura y ética”.
Las duras críticas de la administración del presidente estadounidense Donald Trump y del secretario de Guerra Pete Hegseth han reabierto el debate sobre si la tecnología es verdaderamente neutral.
La descripción de Trump de la empresa como "izquierda radical" en Truth Social, seguida de nuevos ataques, no debe descartarse como simple retórica política.
Las declaraciones también pueden leerse como una señal desde Washington de que el Estado sigue siendo la autoridad última sobre las tecnologías estratégicas.
La designación de Anthropic como un “riesgo en la cadena de suministro” y su respuesta legal pusieron al descubierto el delicado equilibrio de poder entre Silicon Valley y Washington.
El apoyo de grandes empresas tecnológicas como Google, Amazon, Microsoft y Apple reflejó no solo solidaridad corporativa, sino también la preocupación de que una presión política similar pudiera eventualmente dirigirse contra ellas.
En este momento crítico, Sam Altman y OpenAI se movieron rápidamente para llenar el vacío estratégico creado por la crisis.
Mientras Anthropic se distanciaba de las instituciones gubernamentales debido a desacuerdos sobre las "líneas rojas" éticas, OpenAI estableció una nueva asociación con el Pentágono.
Fundada en 2015 con una visión idealista sin fines de lucro, OpenAI se encuentra ahora en el corazón de la arquitectura de seguridad nacional con una valoración de mercado que supera los 700.000 millones de dólares.
Sin embargo, la reacción más significativa ante este movimiento surgió entre los propios usuarios de las plataformas de IA. Tras el anuncio del acuerdo, la campaña #QuitGPT se extendió por las redes sociales, provocando supuestamente un aumento récord de hasta el 300% en la tasa de eliminación de la aplicación ChatGPT.
En respuesta a las críticas, OpenAI se vio obligada a enfatizar que el acuerdo incluía salvaguardas adicionales, como restricciones que impedían la vigilancia de ciudadanos estadounidenses y requisitos de responsabilidad humana en los sistemas de armas autónomas.
A pesar de ello, el modelo Claude de Anthropic escaló rápidamente en los rankings de las tiendas de aplicaciones. Muchos usuarios comenzaron a ver a Claude como una alternativa ética frente al percibido alineamiento entre OpenAI con los militares.
La ética como escudo reputacional
Sin embargo, este panorama no es tan simple como parece. Si bien Anthropic enfatiza fuertemente su discurso ético, es una de las primeras empresas de IA en recibir autorización para trabajar dentro de las redes clasificadas del Pentágono.
El uso activo de Claude en los análisis de objetivos que llevaron a la captura de Nicolás Maduro, entonces presidente de Venezuela durante la operación en ese país en enero, así como en los ataques llevados a cabo en Irán, traza con bastante claridad los límites de esta retórica de "IA segura".
El hecho de que el fundador y CEO de Anthropic, Dario Amodei, se oponga a la vigilancia de ciudadanos estadounidenses mientras deja la puerta abierta a la vigilancia masiva y el análisis operacional en el extranjero muestra cómo los límites éticos pueden desplazarse según las fronteras geográficas y los pasaportes.
Esta situación revela que las identidades de marca éticas y centradas en el ser humano de las empresas de IA se han convertido en herramientas de gestión reputacional.
Los gigantes de la IA intentan gestionar cuidadosamente el rechazo global que surgiría de ser asociados directamente con campos como el de las armas autónomas.
Este esfuerzo puede explicarse no por una postura moral, sino por el deseo de crear un “escudo reputacional” para proteger la marca y la cuota de mercado.
Para los gigantes de la IA, la ética a menudo no es más que un “lavado ético” que decora el escaparate corporativo en lugar de una responsabilidad profunda. A medida que la pretensión de Anthropic de poner al ser humano en el centro queda aplastada bajo la gravedad comercial de su valoración de mercado de 380.000 millones de dólares, el abismo entre el discurso y la realidad se profundiza.
La arquitectura del asesinato masivo
La integración de la IA en los sistemas militares hace algo más que proporcionar una ventaja estratégica. Está redefiniendo la naturaleza de la guerra y creando lo que los juristas denominan una "brecha de responsabilidad".
Hoy en día, las zonas de conflicto se han convertido en laboratorios masivos para los gigantes tecnológicos y los ejércitos.
Algunos de los ejemplos más aterradores pueden verse en sistemas impulsados por IA como "Habsora" y "Lavender", supuestamente utilizados en los ataques israelíes sobre Gaza. Estos sistemas tratan las bajas civiles como un margen de error estadístico. Como ha argumentado el periodista Yuval Abraham, tales tecnologías corren el riesgo de convertirse en una "fábrica de asesinatos en masa".
La supervisión humana en el proceso suele presentarse como una salvaguarda ética. En la práctica, sin embargo, a menudo no es más que una aprobación simbólica.
Cuando los algoritmos generan miles de objetivos en cuestión de minutos, se vuelve físicamente imposible para el operador sobre el terreno examinar los datos resultantes en detalle.
Ante el tiempo limitado y el exceso de información, los soldados dependen cada vez más de las recomendaciones de la IA. La supervisión humana pasa entonces de ser una toma de decisiones genuina a un proceso que simplemente legitima los resultados automatizados.
La evaporación de la responsabilidad
Esta situación convierte a la IA en un instrumento de ataque donde la responsabilidad se evapora. Los sistemas utilizados por Israel apuntan a los hogares de los sospechosos, poniendo en peligro directo a los civiles, niños y ancianos que residen en ellos.
La IA ya no se limita a procesar datos; reduce a los seres humanos a desviaciones estadísticas en un “banco de objetivos”.
Este problema no es exclusivo de una única zona de conflicto, como lo demuestran otros acontecimientos recientes. Los informes iniciales sugieren que el ataque de los Estados Unidos contra una escuela en Irán el 28 de febrero, que causó la muerte de 168 personas, entre ellas más de 100 niños, se debió a una inteligencia defectuosa.
A medida que continúan las investigaciones, es posible que una inteligencia desactualizada o una herramienta de IA que reportó un objetivo equivocado haya sido responsable de la muerte de estos civiles.
Cuando los datos defectuosos o el sesgo algorítmico conducen a la pérdida de vidas, surge una pregunta perturbadora: ¿quién es el responsable? ¿Es el ingeniero que diseñó el algoritmo, la empresa que desplegó el sistema, o el soldado que presionó el botón de aprobación?
Esta incertidumbre se ha convertido en uno de los aspectos más oscuros de la guerra moderna.
La investigación del profesor Kenneth Payne del King's College de Londres destaca otra dimensión del peligro. Su trabajo sugiere que los modelos de IA tienen un 95% más de probabilidades que los humanos de utilizar armas nucleares en momentos de crisis.
La humanidad se ha abstenido hasta ahora de presionar el gatillo nuclear, aprendiendo de los dolorosos recuerdos de Hiroshima y Nagasaki. Sin embargo, no podemos afirmar que los algoritmos posean ni esta memoria histórica ni una conciencia moral.
En esta etapa, la pesadilla de Skynet de las películas de Terminator ya no es simplemente una distopía de ciencia ficción; es una nueva realpolitik (o política realista) forjada por un determinismo tecnológico descontrolado.
El cerco algorítmico
La IA está evolucionando más allá de una herramienta de eficiencia para convertirse en un elemento central de la arquitectura de seguridad global. El reducido número de empresas que controlan esta infraestructura no se limita simplemente a escribir código.
También están construyendo fronteras digitales que definen el ámbito de movimiento de los individuos y la sociedad.
Para los idiomas y culturas que carecen de representación en los conjuntos de datos de entrenamiento, el peligro va más allá de la dependencia tecnológica.
Se corre el riesgo de una forma más profunda de imperialismo cultural. Los modelos de IA llevan consigo los códigos culturales, los juicios de valor y los sesgos ideológicos de los conjuntos de datos con los que fueron entrenados, presentándolos como verdades universales.
Sin conjuntos de datos diversos, las sociedades corren el riesgo de sacrificar su memoria colectiva y sus identidades culturales únicas ante la lógica homogeneizada de los gigantes tecnológicos globales.
En este contexto, el problema no es solo una carrera tecnológica; es una cuestión de proteger a la sociedad y al individuo de ser codificados como coordenadas anónimas en listas de terror algorítmico o como "márgenes de error estadístico" en el banco de objetivos de un software.
Para los usuarios, la realidad más inquietante puede ser lo limitadas que son en realidad sus opciones. Cambiar de un modelo a otro a menudo equivale a elegir entre diferentes ramas de un árbol masivo enraizado en el mismo suelo.
Los nombres de las ramas cambian, pero las raíces permanecen iguales: control estratégico, redes militares e infraestructura de vigilancia global.
En última instancia, la IA ya no es un asistente de oficina que promete eficiencia; se está convirtiendo en un arma digital que rodea la existencia humana y los límites sociales desde todas las direcciones.










