Google firma un acuerdo de inteligencia artificial clasificada con el Pentágono para "cualquier propósito legal" mientras se retira silenciosamente de la competencia de enjambres de drones de 100 millones de dólares

TL; DR
Google firmó un acuerdo clasificado de IA con el Pentágono "para cualquier propósito gubernamental legal" un día después de que más de 580 empleados instaran a Pichai a rechazarlo. El acuerdo incluye barreras de seguridad (sin vigilancia masiva, sin armas autónomas sin supervisión humana), pero el gobierno puede solicitar ajustes en las configuraciones de seguridad. El mismo día, Bloomberg reveló que Google había abandonado silenciosamente una competencia de enjambre de drones de 100 millones de dólares en febrero después de una revisión ética interna. Google está trazando una línea entre vender acceso a IA de uso general y construir armas específicas, pero en redes clasificadas, la distinción puede no tener sentido.
Google ha firmado un acuerdo para permitir que el Pentágono utilice sus modelos de IA Gemini para tareas militares clasificadas que autoricen "cualquier propósito gubernamental legítimo", confirmó la compañía el martes, un día después de que más de 580 trabajadores de Google firmaran una carta instando al CEO Sundar Pichai a rechazar tal medida. El acuerdo otorga a la API del Departamento de Defensa acceso a los sistemas de inteligencia artificial de Google en redes clasificadas, ampliando una relación que ya incluye el despliegue de Gemini por parte del Pentágono a tres millones de personas en sistemas no clasificados. El acuerdo incluye un texto que dice que "el sistema de IA no está destinado ni debe utilizarse para vigilancia masiva nacional o armas autónomas (incluida la selección de objetivos) sin una supervisión y control humanos adecuados". El mismo día, Bloomberg informó por separado que Google había abandonado discretamente un premio de 100 millones de dólares del Pentágono para desarrollar tecnología para enjambres de drones autónomos controlados por voz, a pesar de avanzar a la competencia y retirarse en febrero después de una revisión ética interna. La empresa ha citado oficialmente una falta de "recursos". Google está trazando una línea, pero no es la línea que querían sus empleados.
contrato
El contrato clasificado de IA está estructurado como una extensión del contrato existente de Google con el Pentágono, proporcionando acceso a API en lugar de desarrollo de modelos personalizados o aplicaciones militares a medida. Un representante del sector público de Google confirmó el acuerdo. El Pentágono puede conectarse directamente al software de Google en redes clasificadas, sistemas aislados de la Internet pública que gestionan la planificación de misiones, el análisis de inteligencia y la selección de objetivos de armas. El lenguaje "cualquier propósito gubernamental legal" coloca a Google junto a OpenAI y xAI de Elon Musk, los cuales han firmado sus propios acuerdos clasificados de IA con el Pentágono. El gobierno puede solicitar ajustes en la configuración de seguridad de la IA de Google y en los filtros de contenido, una disposición que efectivamente otorga al Pentágono el poder de modificar las barreras que los propios investigadores de Google han incorporado a los modelos.
Las restricciones nominales, sin vigilancia masiva, sin armas autónomas sin supervisión humana, hacen eco de la línea roja que OpenAI negoció en su propio acuerdo con el Pentágono. Pero el mecanismo de aplicación de la ley es el mismo que el personal de Google identificó como inadecuado en su carta: en las redes de anuncios clasificados aisladas, Google no puede ver qué consultas se están ejecutando, qué resultados se generan o qué decisiones se están tomando con esos resultados. El lenguaje "no debe usarse para" es una recomendación, no una prohibición contractual, y la "supervisión y control humanos apropiados" no está definida. Los empleados escribieron que "la única manera de garantizar que Google no será asociado con tales daños es rechazar cualquier carga de trabajo clasificada". Google decidió adoptarlos en un lenguaje que los empleados ya habían argumentado que era inaplicable. Pichai inauguró Cloud Next 2026 con 750 millones de usuarios de Gemini y una cartera de pedidos de 240 mil millones de dólares. La misma infraestructura Gemini que sirve a estos usuarios se está extendiendo ahora a redes militares clasificadas donde nadie fuera del Pentágono puede monitorear su uso.
retiro
La partida del enjambre de drones es la otra mitad de la historia. Google ha presentado un desafío de premio del Pentágono de 100 millones de dólares para desarrollar tecnología que permita a los comandantes dirigir enjambres de drones autónomos mediante comandos de voz, convirtiendo palabras habladas como "izquierda" en comandos digitales enviados a los drones. La empresa informó al gobierno el 11 de febrero de 2026 que ya no participaría. Oficialmente, Google citó una falta de recursos. La decisión se tomó tras una revisión ética interna, según los registros revisados por Bloomberg. La retirada se hace eco del Proyecto Maven de 2018, cuando casi 4.000 trabajadores de Google firmaron una petición para el análisis de IA de las transmisiones de vídeo de drones y Google permitió que expirara el contrato. Palanti tomó posesión. El contrato de Maven valía varios millones de dólares. Desde entonces, la inversión de Palantir en Maven ha aumentado a 13 mil millones de dólares.
La yuxtaposición es reveladora. El día que Google confirmó un acuerdo para darle al Pentágono acceso clasificado a Gemini para "cualquier propósito gubernamental legal", la compañía también reveló que había abandonado un programa que usaba su IA para controlar enjambres de drones autónomos. Google está dispuesto a mantener sus modelos de IA más potentes en redes clasificadas donde no puede monitorear su uso, pero no está dispuesto a construir enjambres de drones controlados por voz. La distinción es importante para el aparato ético interno de Google: el acceso API a modelos de propósito general está a un paso de las aplicaciones de armas, incluso si los modelos se utilizan en redes que operan objetivos de armas. La construcción de tecnología diseñada específicamente para comandar enjambres de drones es una aplicación directa de armas que la revisión ética no pudo aprobar. La línea que traza Google es entre proporcionar equipos y construir armas, vender acceso y diseñar letalidad. La carta al personal fue diseñada para responder a la pregunta de si esta distinción tiene sentido en una red clasificada donde los equipos pueden aplicarse a cualquier propósito legítimo, incluidos aquellos diseñados para servir al programa de enjambre de drones.
patrón
La trayectoria de Google desde el Proyecto Maven en 2018 hasta el acuerdo clasificado Gemini en 2026 siguió un patrón que la carta a los empleados describió como sistemático. En 2018, Google introdujo su política de inteligencia artificial, comprometiéndose a no utilizar armas ni tecnología de vigilancia. En febrero de 2025, citando "una carrera global por el liderazgo de la IA", Google eliminó de sus políticas el pasaje que excluía las armas y la vigilancia. En diciembre de 2022, Google ganó una parte del contrato de capacidad conjunta de nube de guerra de 9 mil millones de dólares del Pentágono. En diciembre de 2025, el Pentágono lanzó GenAI.mil, impulsado por el chatbot Gemini de Google. En marzo de 2026, Google desplegó agentes de IA Gemini entre la fuerza laboral de treinta millones de personas del Pentágono en sistemas no clasificados. En abril de 2026, Google amplió ese acceso a redes clasificadas. Cada paso era defendible individualmente. No la trayectoria.
Google también está invirtiendo hasta 40 mil millones de dólares en Anthropy, la compañía que fue designada como un riesgo para la cadena de suministro e incluida en la lista negra por la administración Trump por negarse a eliminar las restricciones sobre armas autónomas y vigilancia masiva del acuerdo del Pentágono. Google está financiando a la empresa que rechazó lo que Google aceptó mientras implementaba modelos diseñados para eludir las restricciones de Anthropic. El sector de tecnología de defensa de Europa está desarrollando de forma independiente sus propias capacidades militares de IA, con aplicaciones para fines específicos, como los submarinos de IA de Helsing, que definen sus casos de uso en el diseño en lugar de dejarlos en manos del usuario en una red jerárquica. El enfoque europeo impone limitaciones a la tecnología. El enfoque estadounidense crea tecnología y añade un lenguaje sugerente que los clientes pueden cambiar. La solicitud de presupuesto del Pentágono para el año fiscal 2027 incluye 54.600 millones de dólares para el Grupo de Guerra Autónoma de Defensa en un presupuesto de defensa total de 1,5 billones de dólares. Las cargas de trabajo clasificadas que los empleados de Google se opusieron a estar en el centro de esa inversión.
Las 580 firmas incluyeron a más de 20 directores, directores senior y vicepresidentes, investigadores senior de DeepMind. Dos tercios acordaron permanecer en el anonimato. Un tercero pidió no ser identificado por temor a represalias. Los organizadores de la carta dijeron: "Maven no ha terminado. La compañía no trazará una línea clara y aplicable hasta que los trabajadores continúen organizándose contra el uso de la tecnología de inteligencia artificial por parte de Google". Google trazó una línea el martes. Se basa en acceso clasificado a IA y enjambres de drones autónomos, vendiendo modelos de uso general al Pentágono y desarrollando aplicaciones de armas específicas. Se pidió a los empleados que cerraran la fila sobre material clasificado. La óptica del desarrollo del arma se volvió innegable, y Google decidió utilizarla donde el potencial de abuso no era posible. Google lanzó Gemma 4 hace tres semanas bajo una licencia abierta Apache 2.0, haciendo que sus modelos de investigación estén disponibles gratuitamente para cualquiera. Sus modelos fronterizos Gemini ahora se encuentran detrás de redes militares clasificadas donde no es posible ninguna supervisión externa. Las empresas que abren al público la investigación de la IA están retocando su tecnología más poderosa detrás de muros privados. Los empleados que firmaron la carta comprendieron este conflicto antes de firmar el contrato. Google lo firmó de todos modos.




