Google ha firmado un nuevo acuerdo con el Pentágono para abrir el acceso a sus propias herramientas de inteligencia artificial a sus redes clasificadas, permitiendo casi todos los "usos legales" después de que Anthropic rechazara una solicitud del Departamento de Defensa de Estados Unidos para autorizar usos sensibles. Múltiples informes de los medios afirmaron que este acuerdo significa que el Departamento de Defensa puede implementar la IA de Google de manera más amplia en entornos clasificados para análisis de inteligencia, apoyo a la toma de decisiones y otros escenarios.

El incidente fue provocado por la postura pública de Anthropic contra la administración Trump. Anteriormente, el Pentágono quería utilizar los modelos de Anthropic con pocas restricciones, incluido el uso de IA para vigilancia masiva nacional y sistemas de armas autónomos, pero Anthropic insistió en agregar "barandillas" claras al contrato que prohibían tales usos. Debido a que Anthropic se negó a cooperar con estos casos de uso, el Departamento de Defensa posteriormente colocó a la empresa modelo en una lista de "riesgo de cadena de suministro", una etiqueta normalmente reservada para entidades consideradas "adversarios extranjeros".

Anthropic ha presentado una demanda ante el tribunal en torno a la designación. En marzo de este año, un juez accedió a la solicitud de Anthropic de emitir una orden judicial temporal sobre la determinación del "riesgo de la cadena de suministro" mientras el caso estaba pendiente, evitando temporalmente la propagación de las consecuencias administrativas relacionadas.

En medio de este conflicto, otras grandes empresas de inteligencia artificial aprovecharon rápidamente la oportunidad, tratando de convertir las “pérdidas” de Anthropic en “ganancias” propias. OpenAI firmó un acuerdo con el Departamento de Defensa lo antes posible. Posteriormente, xAI también obtuvo acceso a redes confidenciales, lo que provocó que algunos miembros del Congreso de Estados Unidos cuestionaran la toma de decisiones del Pentágono. Ahora Google se ha convertido en la tercera empresa en llegar a un acuerdo similar con el ejército, y su cooperación ha ampliado aún más la gama de modelos grandes disponibles para el sistema de defensa estadounidense.

Según el Wall Street Journal, el texto del acuerdo de Google con el Pentágono también incluía un lenguaje que decía que la compañía "no tiene la intención" de que su IA se utilice para vigilancia masiva nacional o armas autónomas, similar a partes del contrato OpenAI. Sin embargo, el informe también señala que aún existe incertidumbre sobre si estas disposiciones son verdaderamente jurídicamente vinculantes y cómo serán monitoreadas y responsables de su implementación real.

Vale la pena señalar que Google está impulsando esta gran orden militar mientras la oposición interna no ha disminuido. Hasta ahora, 950 empleados de Google han firmado una carta abierta pidiendo a la empresa que siga el ejemplo de Anthropic y no venda capacidades de inteligencia artificial al Departamento de Defensa sin restricciones de uso claras y aplicables. Google aún no ha respondido a la carta conjunta ni al contenido específico del nuevo contrato, ni ha respondido a las solicitudes de comentarios de los medios.

En el contexto de la rápida penetración de la inteligencia artificial en los ámbitos militar y de seguridad pública, este incidente refleja un conflicto de valores cada vez más agudo entre los gigantes tecnológicos, los gobiernos y sus propios empleados. Por un lado, el ejército busca maximizar el uso de herramientas de inteligencia artificial de vanguardia para mejorar sus capacidades; por otro lado, algunas empresas de tecnología y sus empleados intentan establecer un límite para las aplicaciones militares y de seguridad de la IA mediante términos contractuales y presión de la opinión pública. La decisión de Google de ampliar la cooperación con el Pentágono en lugar de seguir la postura dura de Anthropic ha intensificado aún más la controversia en torno a "quién debería trazar líneas rojas para el uso de la IA".