TECNOLOGIA

Más de 580 trabajadores de Google, incluidos investigadores de DeepMind, instan a Pichai a rechazar el contrato de IA del Pentágono

TL; DR

Más de 580 empleados de Google, incluidos más de 20 directores, vicepresidentes e investigadores senior de DeepMind, firmaron una carta instando al director ejecutivo, Sundar Pichai, a rechazar trabajos clasificados de inteligencia artificial militar para el Pentágono. La carta sostiene que en redes clasificadas aisladas, Google no puede monitorear cómo se usa su IA, lo que hace que "confíe en nosotros" sea la única salvaguardia contra las armas autónomas y la vigilancia masiva. Los trabajadores de Google ganaron la batalla del Proyecto Maven en 2018, pero desde entonces la compañía eliminó el lenguaje armado de su política de inteligencia artificial, ganó una parte del contrato de nube JWCC de $ 9 mil millones, contrató a 3 millones de trabajadores del Pentágono para Gemini y ahora está negociando acceso clasificado en términos de "todos los usos legales".

Según Bloomberg, más de 580 empleados de Google, incluidos más de 20 directores, directores senior y vicepresidentes, firmaron una carta instando al director ejecutivo, Sundar Pichai, a rechazar trabajos clasificados de inteligencia artificial militar para el Pentágono. La carta, que incluye investigadores senior de Google DeepMind, fue enviada a Pichai el lunes. "Somos empleados de Google que estamos profundamente preocupados por las negociaciones en curso entre Google y el Departamento de Defensa de Estados Unidos", decía. "Las personas que trabajan en IA sabemos que estos sistemas pueden concentrar energía y cometen errores". Los firmantes quieren que Google rechace todas las cargas de trabajo clasificadas, argumentando que en redes clasificadas aisladas de la Internet pública, la empresa no tendría la capacidad de monitorear o restringir cómo se utilizan realmente sus herramientas de inteligencia artificial. "Actualmente, la única manera de garantizar que Google no se verá involucrado en tales daños es rechazar cualquier carga de trabajo clasificada", decía la carta. "De lo contrario, dichos usos pueden ocurrir sin nuestro conocimiento o capacidad para detenerlos".

historia

Los trabajadores de Google han librado esta batalla antes. En 2018, aproximadamente 4.000 empleados firmaron una petición interna y al menos 12 renunciaron por el Proyecto Maven, un programa del Pentágono que utilizaba inteligencia artificial para identificar y analizar objetos en transmisiones de video de drones. La protesta obligó a Google a introducir políticas de inteligencia artificial comprometiéndose a no utilizar armas ni tecnología de vigilancia y permitió que el contrato de Maven expirara en marzo de 2019. Palantir lo aceptó. El contrato de Maven valía varios millones de dólares. Desde entonces, la inversión de Palantir en Maven ha aumentado a 13 mil millones de dólares. La victoria de 2018 fue real, pero fue la última vez que la fuerza laboral de Google frustró con éxito las ambiciones de defensa de la compañía. Desde entonces, Google ha reconstruido sistemáticamente todos los puentes quemados en señal de protesta.

En diciembre de 2022, Google ganó una parte del contrato de capacidad conjunta de nube de guerra de 9 mil millones de dólares del Pentágono con Amazon, Microsoft y Oracle. En febrero de 2025, Google eliminó el pasaje de sus políticas de IA que prometía evitar "el uso de tecnología en armas u otras tecnologías cuyo objetivo o implementación principal sea dañar o facilitar directamente lesiones humanas" y evitar "tecnología que recopile o utilice información para vigilancia en violación de normas internacionalmente reconocidas". Una publicación de blog en coautoría con el CEO de Google DeepMind, Demis Hassabis, citó "una carrera global por el liderazgo de la IA" como justificación. Tanto Human Rights Watch como Amnistía Internacional han condenado el incidente por el contrario. En diciembre de 2025, el Pentágono lanzó GenAI.mil, una plataforma impulsada por el chatbot Gemini de Google, disponible para todo el personal de defensa. El secretario de Defensa, Pete Hegseth, dijo que "el futuro de la guerra estadounidense está aquí y significa IA". En marzo de 2026, Google desplegó agentes de IA Gemini en la fuerza laboral de treinta millones de personas del Pentágono en el nivel no clasificado, junto con ocho agentes prediseñados para tareas que incluían resumir notas de reuniones, crear presupuestos y probar contramedidas de estrategias de defensa.

discusión

💜 de tecnología de la UE

Los últimos rumores de la escena tecnológica de la UE, una historia de nuestro sabio fundador Boris y algo de arte de inteligencia artificial dudoso. Es gratis, todas las semanas, en tu bandeja de entrada. ¡Regístrate ahora!

Los acuerdos clasificados son el siguiente paso. Emil Michael, subsecretario de defensa para investigación e ingeniería, dijo a Bloomberg en marzo que el Pentágono "comenzará con los no clasificados porque ahí es donde están la mayoría de los usuarios, y luego pasaremos a los clasificados y de alto secreto". Confirmó que ya se están llevando a cabo conversaciones con Google sobre el uso de Gemini Agent en su infraestructura de nube clasificada. En abril, The Information informó que las conversaciones avanzaban hacia "todos los usos legales" de las herramientas de inteligencia artificial de Google, una frase que no llega a la línea roja establecida antes de Anthropic. Designado como riesgo para la cadena de suministro por el Pentágono Por negarse a levantar las prohibiciones de armas autónomas y vigilancia masiva interna. El Pentágono cuestionó firmemente la caracterización de Anthropic, argumentando que las empresas comerciales no podrían dictar políticas de uso durante tiempos de guerra o en preparación para la guerra.

OpenAI firmó su propio acuerdo con el Pentágono horas después de la inclusión de Anthropogenic en la lista negra, con tres líneas rojas declaradas: sin vigilancia interna masiva, sin armas autónomas y sin decisiones automatizadas de alto riesgo. Pero los empleados de Google están planteando la cuestión de aplicar esas líneas rojas a las redes clasificadas. En un sistema aislado, la IA opera en una red que, por diseño, está desconectada de la infraestructura de Google. Google no puede ver qué consultas se ejecutan, qué resultados se generan o qué decisiones se toman con esos resultados. Una garantía de "confíe en nosotros" por parte de los líderes del Pentágono es el único método que previene el uso que violaría cualquier línea roja que la compañía pudiera negociar. Sophia Liguori, ingeniera de investigación de inteligencia artificial en Google DeepMind en el Reino Unido, quien firmó la carta, dijo a Bloomberg que la principal respuesta a las preocupaciones de los trabajadores es alentar a la fuerza laboral a confiar en el liderazgo de la empresa para firmar buenos contratos. "Pero todo sigue siendo muy amplio", afirmó. "El agente AI puede conseguir esto especialmente por el nivel de libertad que tiene. Es como renunciar a una herramienta muy poderosa y al mismo tiempo renunciar a cualquier tipo de control en su uso".

apuesta

El presupuesto de IA del Pentágono cuenta la historia de la financiación de contratos clasificados. El presupuesto de defensa del año fiscal 2026 incluyó 13.400 millones de dólares dedicados a la IA y la autonomía. La solicitud para el año fiscal 2027, presentada en abril, busca 54.600 millones de dólares para el Grupo de Guerra Autónoma de Defensa, un aumento del 24.000% con respecto al año anterior, de un presupuesto de defensa total de 1,5 billones de dólares que representa un aumento interanual del 42%. El Pentágono ya está probando robots soldados humanoides La fundación formalizó Maven de Palantir como un sistema militar central con Future Industries y financiación plurianual. La escala de la inversión en IA militar ha pasado de la fase experimental que caracterizó al Proyecto Maven en 2018 a una acumulación industrial que considera la IA como una capacidad central del ejército estadounidense. En el centro de ese desarrollo estará la carga de trabajo clasificado a la que se oponen los trabajadores de Google.

Los organizadores de la carta dijeron: "Maven no ha terminado. La compañía no trazará una línea clara y aplicable hasta que los trabajadores continúen organizándose contra el uso de la tecnología de inteligencia artificial por parte de Google". El encuadre es significativo. En 2018, la pelea fue un acuerdo para un programa. En 2026, la lucha es toda la pila de inteligencia artificial de Google, Gemini, la investigación de DeepMind, los chips de TPU que potencian la inferencia, la infraestructura militar en redes clasificadas donde nadie fuera del Pentágono puede ver lo que hace. La paradoja de la administración exige que los bancos adopten su IA mientras incluyen a Anthropic en la lista negra Refleja el clima político: las empresas que se resisten al uso militar irrestricto enfrentan la designación de riesgos para la cadena de suministro, mientras que las empresas que cumplen obtienen contratos por valor de miles de millones. Los empleados de Google están pidiendo a Pichai que rechace un acuerdo que el Pentágono ha dejado claro que lo castigará por rechazarlo, en un momento en que la compañía ha pasado tres años reconstruyendo sus credenciales de defensa precisamente para ganar ese acuerdo.

la brecha

580 firmas destacan por su antigüedad. Veinte directores, directores senior y vicepresidentes firmaron con investigadores senior de DeepMind. Dos tercios de los firmantes aceptaron permanecer en el anonimato; Un tercero solicitó el anonimato por temor a represalias. Una carta anterior entre empresas de febrero, firmada por aproximadamente 800 empleados de Google y 100 empleados de OpenAI, expresó su apoyo a la posición de Anthropic contra el uso militar sin restricciones de la IA. Más de 100 empleados de DeepMind firmaron individualmente una carta interna exigiendo que no se utilice ninguna investigación o modelo de DeepMind para el desarrollo de armas o la focalización autónoma. Jeff Dean, científico jefe de Google, escribió en X que "la vigilancia masiva viola la Cuarta Enmienda y tiene un efecto paralizador sobre la libertad de expresión". Los desacuerdos internos no son marginales. Esto se extiende al liderazgo técnico que construye los sistemas que el Pentágono quiere desplegar.

Pero la brecha entre la disidencia interna y la toma de decisiones corporativas se ha ampliado desde 2018. En 2018, 4.000 firmas y una docena de cartas de renuncia fueron suficientes para acabar con un acuerdo por valor de varios millones de dólares. En 2026, 580 firmas se enfrentan a un mercado clasificado de IA valorado en varios miles de millones, un Pentágono que ha demostrado que tomará represalias contra las empresas que rechacen sus condiciones, una empresa que ya ha eliminado sus propias líneas rojas y un CEO que ha aprobado el despliegue de Gemini, sin los 3 millones de empleados del Pentágono, según la carta que está negociando con nuestra organización. Trump ha mostrado apertura a un acuerdo del Pentágono con Anthropic Si la empresa retira sus restricciones, sugiera que la administración considere el cumplimiento como el destino final de toda empresa de IA, independientemente de dónde comience. Los empleados de Google piden a su empresa que sea una excepción. La trayectoria de la empresa durante los últimos tres años sugiere que quiere ser la norma.

Source link

Redacción - ACN

Somos un portal de noticias líder en la República Dominicana que se especializa en ofrecer una cobertura informativa integral. Desde eventos políticos y económicos hasta avances científicos y noticias de entretenimiento, este sitio web es tu fuente confiable para mantenerse al día con los acontecimientos más relevantes tanto a nivel nacional como internacional. Además de ofrecer informes actualizados, ACN también se destaca por sus análisis en profundidad y sus entrevistas exclusivas que proporcionan una comprensión más completa de las noticias.

Artículos Relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Volver arriba botón