El fantasma de Maven: cómo el Pentágono terminó devorando la ética de Silicon Valley

31

Miguel Medina – Tektónikos

Corría 2018 cuando más de tres mil empleados de Google firmaron una carta abierta exigiendo a sus directivos que dieran marcha atrás. El objeto de su ira era el Proyecto Maven, una iniciativa del Pentágono que buscaba utilizar inteligencia artificial (IA) para procesar las imágenes capturadas por drones militares en zonas de conflicto. El sistema, desarrollado por Google Cloud, prometía identificar objetos, vehículos y personas, así como etiquetar objetivos potenciales con cajas amarillas para que analistas humanos tomaran decisiones que podían implicar la diferencia entre la vida y la muerte.

La presión interna fue tan intensa que Google, la empresa que había construido su reputación sobre el eslogan «Don’t be evil» (algo así como “No seas malvado”), terminó cediendo y anunció que no renovaría su contrato con el Departamento de Defensa. Era la primera gran batalla pública entre Silicon Valley y la maquinaria bélica estadounidense, y por aquel entonces muchos creyeron que la victoria de los empleados sentaría un precedente imborrable.

Ocho años después, la historia no solo se repite, sino que lo hace con una intensidad muy superior: lo que entonces eran algoritmos de visión artificial aplicados a videovigilancia, hoy son modelos fundacionales de lenguaje capaces de planificar operaciones militares, sugerir objetivos y simular escenarios de batalla en tiempo real.

El conflicto actual entre Anthropic, OpenAI y el ahora denominado «Departamento de Guerra» no es más que el último y más grave capítulo de un tira y afloja que lleva casi una década desarrollándose. La diferencia fundamental es que la capacidad destructiva de la tecnología involucrada ha crecido exponencialmente, y el mundo se encuentra inmerso en conflictos bélicos de envergadura que convierten cualquier discusión ética en un lujo que pocos están dispuestos a permitirse.

El pecado original

Para comprender la magnitud de lo que está ocurriendo conviene regresar a aquel 2017, cuando el Pentágono lanzó oficialmente el Algorithmic Warfare Cross-Functional Team. El Proyecto Maven nació con un objetivo aparentemente técnico: acelerar la integración del aprendizaje automático en los flujos de trabajo de inteligencia militar. En la práctica, significaba entregar a una máquina la capacidad de procesar el torrente interminable de imágenes que los drones recolectaban diariamente sobre zonas de conflicto como Irak, Siria o Afganistán.

Google, que por entonces buscaba desesperadamente contratos gubernamentales para su incipiente negocio en la nube, aceptó el trato por unos módicos nueve millones de dólares.

La rebelión interna que siguió sacudió los cimientos de la compañía. Ingenieros de primer nivel renunciaron en señal de protesta, y la presión mediática forzó a Sundar Pichai, consejero delegado de la empresa, a establecer unos Principios de Inteligencia Artificial que prohibían explícitamente el desarrollo de tecnologías destinadas a armamento o vigilancia que violaran normas internacionalmente aceptadas.

Aquella decisión fue celebrada como una victoria de la ética sobre los intereses comerciales. Sin embargo, el Pentágono no se quedó de brazos cruzados. El contrato de Google fue asumido por empresas especializadas en defensa como Palantir y Anduril, mientras que la infraestructura tecnológica pasó a manos de Amazon Web Services.

El Proyecto Maven no solo sobrevivió, sino que prosperó lejos del escrutinio público, evolucionando silenciosamente hasta convertirse en el sistema nervioso central de las operaciones militares estadounidenses basadas en inteligencia artificial.

La metamorfosis de Maven y el desembarco de Anthropic

Con el paso de los años, Maven dejó de ser un mero procesador de imágenes para transformarse en un sistema integral de mando y control. La irrupción de los modelos fundacionales de lenguaje, capaces de comprender contextos complejos y generar análisis sofisticados, abrió nuevas posibilidades que el Pentágono no tardó en explotar. Fue entonces cuando Anthropic, la empresa fundada por exempleados de OpenAI con una fuerte impronta ética, firmó en julio de 2025 un contrato de doscientos millones de dólares con el Gobierno.

El acuerdo parecía el equilibrio perfecto entre capacidad tecnológica y responsabilidad moral. Anthropic había construido su reputación sobre dos líneas rojas inquebrantables: ninguna participación en sistemas de vigilancia masiva nacional y ninguna contribución al desarrollo de armas completamente autónomas.

Durante meses, Claude, su modelo estrella, participó en operaciones de inteligencia contra Irán, facilitó la captura de líderes en Venezuela durante la intervención de enero de 2026 y contribuyó a la llamada Operación Epic Fury contra el país persa, donde el sistema llegó a sugerir cientos de objetivos militares, procesar coordenadas precisas y evaluar ataques en tiempo real.

Lo que antes requería semanas de planificación y análisis humano, ahora se resolvía en cuestión de horas con la asistencia de una IA que, al menos sobre el papel, operaba dentro de los límites éticos impuestos por sus creadores. La contradicción resultaba evidente, pero el Pentágono parecía dispuesto a tolerarla mientras los resultados acompañaran.

La línea roja que el Pentágono no estaba dispuesto a aceptar

Todo se derrumbó cuando el Departamento de Guerra, bajo el liderazgo de Pete Hegseth y con el respaldo explícito de Donald Trump, exigió a Anthropic que eliminara sus restricciones de uso y permitiera que el ejército empleara la tecnología para «todos los fines legales». La fórmula, aparentemente inocua, escondía una exigencia que la empresa no podía aceptar: que fuera el gobierno, y no sus directivos, quien decidiera qué usos de la inteligencia artificial resultaban éticamente admisibles.

Anthropic dijo que se negó en redondo. Sus ejecutivos argumentaron que ceder el control sobre la vigilancia masiva de ciudadanos estadounidenses o sobre el desarrollo de armas autónomas letales no era una decisión empresarial, sino una abdicación de responsabilidad moral que no estaban dispuestos a asumir.

El viernes 27 de febrero, Donald Trump ordenó a través de su red Truth Social que todas las agencias federales cesaran inmediatamente el uso de la tecnología de Anthropic. Horas después, el Departamento de Guerra anunciaba que la empresa sería designada como un «riesgo para la cadena de suministro» de la seguridad nacional, una figura legal sin precedentes que prohíbe a cualquier contratista militar mantener relaciones comerciales con la compañía señalada.

La medida, que según los expertos requería pruebas de vulnerabilidad técnica o infiltración extranjera, se aplicaba por primera vez contra una empresa estadounidense cuyo único delito había sido mantener sus principios.

El oportunismo de OpenAI

En medio del vendaval, OpenAI (empresa detrás de Chat-GPT) vio su oportunidad. Apenas unas horas después de que la administración Trump anunciara la exclusión de Anthropic, Sam Altman comunicaba un acuerdo con el Pentágono para reemplazar a Claude en las redes militares clasificadas. El movimiento, que el propio Altman calificaría días después como «oportunista y torpe», desató una oleada de indignación entre los usuarios de ChatGPT que ningún ejecutivo había anticipado.

La consultora Sensor Tower registró un aumento del 295% en las desinstalaciones de la aplicación móvil de ChatGPT durante el sábado 28 de febrero. Las reseñas de una estrella se dispararon un 775%, mientras que las valoraciones positivas cayeron a la mitad. En las redes sociales, el movimiento «Cancel ChatGPT» cobraba fuerza con una velocidad inusitada, castigando a la empresa por lo que muchos percibían como una traición a los principios éticos que decía defender.

Altman intentó contener el daño mediante el anuncio de enmiendas al acuerdo que prohibían explícitamente el uso de sus sistemas para vigilancia doméstica masiva y garantizaban que la implementación se limitaría a infraestructuras en la nube, imposibilitando teóricamente su integración en sistemas de armas autónomas que requerirían despliegue en dispositivos de borde.

Pero el daño ya estaba hecho: la percepción pública colocaba a Anthropic como la defensora de la ética y a OpenAI como la oportunista dispuesta a doblegarse ante el poder militar a cambio de un contrato.

El efecto Streisand y el auge inesperado de Claude

La paradoja final de esta historia es que los intentos del Pentágono por castigar a Anthropic han terminado beneficiando a la empresa de un modo que nadie podría haber anticipado. El llamado efecto Streisand, según el cual los intentos por censurar o castigar algo terminan multiplicando su visibilidad, se ha desatado con una fuerza arrolladora.

Claude, el asistente de Anthropic, se ha convertido en la aplicación gratuita más descargada de la App Store en Estados Unidos y en al menos otros seis países, entre ellos Canadá, Alemania y Suiza. La compañía ha anunciado que más de un millón de personas se registran diariamente en su servicio, atraídas precisamente por la postura ética que el gobierno ha intentado aplastar. Figuras del entretenimiento como Katy Perry han respaldado públicamente a la empresa, y la propia Anthropic ha lanzado una herramienta que permite a los usuarios importar todas sus conversaciones desde ChatGPT, capitalizando el descontento con su competidor.

Mientras tanto, el Departamento de Guerra ha confirmado oficialmente la designación de Anthropic como riesgo para la cadena de suministro, y la empresa ha anunciado que impugnará la decisión ante los tribunales. El conflicto, que enfrenta a una compañía tecnológica con el gobierno más poderoso del planeta, promete sentar jurisprudencia sobre los límites de la autonomía corporativa frente a las exigencias de la seguridad nacional.

La IA como infraestructura estratégica

La inteligencia artificial ha dejado de ser una herramienta de software comercial para convertirse en lo que los expertos denominan infraestructura estratégica, un componente tan crítico para la seguridad nacional como los satélites, los semiconductores o el cifrado avanzado.

Cuando un gobierno comienza a evaluar a un proveedor de inteligencia artificial como un posible riesgo para la cadena de suministro, está señalando que estas tecnologías han cruzado un umbral cualitativo. Ya no se trata de productividad empresarial o entretenimiento, sino de capacidades que pueden inclinar la balanza en conflictos bélicos, operaciones de inteligencia y estrategias de disuasión.

La pregunta que queda por responder, y que ningún actor parece dispuesto a abordar frontalmente, es ¿quién debe gobernar sistemas con semejante poder?, ¿las empresas privadas que los desarrollan, con sus líneas rojas autoimpuestas y sus códigos éticos unilaterales?, ¿los gobiernos, que responden ante sus ciudadanos pero también ante imperativos de seguridad que tienden a devorar cualquier consideración moral?, ¿o acaso se necesitan marcos regulatorios internacionales que, como ocurrió con la energía nuclear, establezcan límites claros al uso de tecnologías potencialmente existenciales?

La historia del Proyecto Maven, desde la rebelión de Google en 2018 hasta el choque actual entre Anthropic y el Pentágono, sugiere que el consenso ético en torno a la inteligencia artificial es mucho más frágil de lo que muchos quisieran creer. Cuando la guerra llama a la puerta, los principios suelen salir huyendo por la ventana. Y esta vez, a diferencia de lo que ocurría con los drones de 2017, la IA no se limita a observar y etiquetar: participa activamente en la planificación y ejecución de operaciones que deciden quién vive y quién muere.

La inteligencia artificial ya está en el campo de batalla, y surgen muchas dudas sobre si alguien podrá convencerla de que abandone la trinchera.