TECNOLOGIA

Google identifica el primer exploit de día cero mejorado con IA y frustra el exploit masivo planificado

TL; DR

Google identificó el primer exploit de día cero que cree que fue creado con inteligencia artificial y frustró un exploit masivo planeado. El informe GTIG documenta actores patrocinados por el estado en China, Corea del Norte y Rusia que utilizan IA para la investigación de vulnerabilidades, malware autónomo que utiliza la API Gemini de Google y ataques a la cadena de suministro dirigidos al ecosistema de software de IA.

Google ha identificado el primer exploit de día cero que cree que ha sido creado por inteligencia artificial. El actor criminal que lo creó planeó usarlo en un incidente de explotación masiva. El grupo de inteligencia de amenazas de Google descubrió la vulnerabilidad antes de que se implementara, trabajó con el proveedor afectado para parchearla e interrumpió la operación. Exploit, un script de Python que evita la autenticación de dos factores en una popular herramienta de administración de sistemas de código abierto, presenta un formato de libro de texto estructurado con puntuaciones CVSS alucinantes, cadenas de documentos educativos y resultados de modelos de lenguaje de gran tamaño. Google tiene mucha confianza en que se utilizó un modelo de inteligencia artificial para encontrar y reparar errores.

La revelación surge en un informe publicado el lunes por Google Threat Intelligence Group que califica a GTIG de piratería experimental habilitada por IA “Aplicación a escala industrial de modelos generativos en flujos de trabajo adversarios."Los actores patrocinados por el estado en China y Corea del Norte están utilizando IA para investigar vulnerabilidades. Los actores de amenazas Rusia-Nexus están implementando códigos señuelo generados por IA contra objetivos ucranianos. Un malware de Android llamado PROMPTSPY utiliza la propia API Gemini de Google para navegar de forma autónoma en los dispositivos de las víctimas, capturar datos biométricos y bloquear su propia desinstalación. La carrera armamentista de ciberseguridad de IA de la que han advertido los expertos es más No teórica. Está en los registros de respuesta a incidentes de Google

día cero

Espacio de coworking de TNW City: donde ocurre tu mejor trabajo

Un espacio de trabajo diseñado para el crecimiento, la colaboración y un sinfín de oportunidades de networking en el corazón de la tecnología.

El exploit apunta a un error de lógica semántica, no a un error de corrupción de memoria o un error de saneamiento de entrada, sino a un error de diseño de alto nivel en el que el desarrollador codificó una suposición de confianza en la lógica de autenticación de dos factores. Los escáneres de vulnerabilidades y fusores tradicionales están optimizados para detectar fallas y sumideros de flujo de datos. Se les escapan los defectos de este apartado. No modeles lenguajes grandes. Los modelos de frontera pueden realizar razonamiento contextual, leer la intención del desarrollador y asociar la lógica de aplicación de autenticación con excepciones codificadas que la contradicen. El modelo reveló una falla lógica latente que parecía funcionalmente correcta en todos los escáneres tradicionales, pero que estaba estratégicamente rota desde una perspectiva de seguridad.

GTIG trabajó con el proveedor afectado para revelar responsablemente la vulnerabilidad. No cree que se haya utilizado a Géminis. Según Google, detrás del exploit hay grupos criminales”.Un sólido historial de incidentes de alto perfil y explotación masiva"Los exploits masivos planificados se evitaron mediante un contradescubrimiento proactivo. Esto significa que la IA ha cruzado un umbral. Ahora puede encontrar vulnerabilidades que los humanos y las herramientas tradicionales pasan por alto, y está siendo explotada a escala por actores criminales.

Malware autónomo

PROMPTSPY es una puerta trasera de Android detectada por primera vez por ESET en febrero de 2026. Los informes iniciales se centraron en el uso de la API Gemini para mantener la persistencia navegando por la interfaz de usuario de Android para anclar la aplicación maliciosa a la lista de aplicaciones recientes. El análisis de Google revela capacidades que van mucho más allá.

El malware contiene un módulo de agente autónomo llamado GeminiAutomationAgent. Serializa la jerarquía de la interfaz de usuario visible del dispositivo en un formato similar a XML a través de la API de accesibilidad y la envía al modelo Gemini-2.5-Flash-Lite. El modelo devuelve respuestas JSON estructuradas con tipos de acción y coordenadas espaciales, que PROMPTSPY analiza para simular gestos físicos: clics, deslizamientos y navegación. La IA interpreta el estado del dispositivo y genera comandos en tiempo real sin supervisión humana.

PROMPTSPY puede capturar datos biométricos de la víctima para reproducir gestos de autenticación y restaurar el acceso a los dispositivos comprometidos. Si una víctima intenta desinstalarlo, el malware detecta las coordenadas en pantalla del botón de desinstalación y genera una superposición invisible que intercepta los eventos táctiles, haciendo que el botón parezca no responder. Su infraestructura de comando y control, incluidas las claves API de Gemini y los servidores de retransmisión VNC, se pueden actualizar dinámicamente en tiempo de ejecución, lo que significa que bloquear puntos finales específicos no desactiva la puerta trasera. Google ha inhabilitado los recursos asociados con esta actividad y confirmó que no hay aplicaciones que contengan PROMPTSPY disponibles en Google Play.

Actores estatales

Los actores de amenazas patrocinados por los Estados chinos y norcoreanos están utilizando la IA para investigar vulnerabilidades con una sofisticación cada vez mayor. GTIG observó a UNC2814, un grupo vinculado a China, que ordena a Gemini actuar como ""Auditor Senior de Seguridad"y "expertos en seguridad binaria C/C++" para apoyar la investigación de vulnerabilidades en el firmware de TP-Link y las implementaciones de protocolos de transferencia de archivos. El APT45 de Corea del Norte envió miles de mensajes repetitivos que analizaron iterativamente varios CVE y validaron exploits de prueba de concepto, lo que ayudaría a construir un arsenal de capacidades sin capacidades de exploit.

Los actores de amenazas chinos experimentaron con un repositorio de vulnerabilidades particular llamado wooyun-legacy, un complemento de eficiencia de código en la nube con una base de conocimientos destilada de más de 85.000 casos de vulnerabilidades del mundo real recopilados por la plataforma china de recompensas por errores WooYun entre 2010 y 2016. Eso permite que el modelo aborde el análisis de código como un investigador experimentado y detecte errores lógicos que de otro modo el modelo base pasaría por alto.

Los actores del nexo con Rusia que apuntan a organizaciones ucranianas están implementando familias de malware llamadas CANFAIL y LONGSTREAM, que utilizan códigos señuelo generados por IA para ocultar su funcionalidad maliciosa. El código fuente de CANFAIL contiene comentarios de los desarrolladores que identifican claramente los bloques no utilizados como material de relleno diseñado para disfrazar actividad maliciosa. LONGSTREAM contiene 32 instancias de código para consultar el estado de horario de verano del sistema, una operación repetitiva de apariencia benigna que existe sólo para disfrazar las verdaderas intenciones del descargador. APT27, un grupo vinculado a China, utilizó Gemini para acelerar el desarrollo de una herramienta de gestión de red de caja de retransmisión operativa con configuraciones de proxy de múltiples saltos diseñadas para ocultar el origen de las intrusiones.

cadena de suministro

Un grupo de ciberdelincuencia llamado TimPCP se atribuyó la responsabilidad de múltiples compromisos en la cadena de suministro de repositorios populares de GitHub y acciones de GitHub asociadas a finales de marzo de 2026, incluidos Trivi, Checkmarks, LiteLLM y BeriaI. Los atacantes obtuvieron acceso inicial a través de paquetes PyPI comprometidos y solicitudes de extracción maliciosas, luego incorporaron malware de robo de credenciales para extraer claves de AWS y tokens de GitHub de los entornos de compilación afectados. Las credenciales robadas se monetizaron a través de asociaciones con ransomware y grupos de extorsión por robo de datos.

El compromiso de LiteLLM, una utilidad de puerta de enlace de IA utilizada para integrar varios proveedores importantes de modelos lingüísticos, es particularmente significativo. Debido a que el paquete se implementa ampliamente, la infracción podría exponer los secretos de la API de IA en toda la cadena de suministro de software. GTIG señala que los atacantes que obtienen acceso a los sistemas de inteligencia artificial de una organización a través de dependencias comprometidas pueden explotar modelos internos para identificar, recopilar y exfiltrar información confidencial a escala, o recuperarla para profundizar en la red. El ecosistema de software de IA se ha convertido a la vez en una herramienta y en un objetivo para los atacantes.

Google anunció su infraestructura de agentes en Cloud Next 2026, posicionando a Gemini como la columna vertebral lógica para los flujos de trabajo autónomos de IA en toda la empresa. La misma empresa ahora está documentando cómo los adversarios llevan a cabo ataques utilizando flujos de trabajo agentes. El informe GTIG describe herramientas llamadas HexStrike y Streaks que los actores de amenazas están implementando contra empresas de tecnología japonesas y plataformas de seguridad cibernética en el este de Asia, donde HexStrike utiliza un gráfico de conocimiento temporal para mantener un estado constante de la superficie de ataque y pivotar de forma autónoma entre herramientas de reconocimiento. Los agentes que Google vende a las empresas se reflejan en los agentes que los adversarios están desplegando contra ellas.

defensa

La respuesta de Google incluye Big Sleep, Google DeepMind y un agente de inteligencia artificial desarrollado por Google Project Zero que busca vulnerabilidades de seguridad desconocidas en el software. Big Sleep encontró la vulnerabilidad que el grupo criminal planeaba explotar antes de lanzar el ataque. Google también presentó CodeMender, un agente impulsado por inteligencia artificial que utiliza las capacidades de razonamiento de Gemini para corregir automáticamente vulnerabilidades de códigos complejos. La IA defensiva encontró la falla. Desarrolló exploits agresivos de IA. El descubrimiento activo de Google fue lo primero.

Google hizo la transición de Chrome como una plataforma de seguridad empresarial con prevención de pérdida de datos en tiempo real y controles de gobernanza de IA, reportando una reducción del 50 por ciento en las transferencias de datos de IA no autorizadas. Las inversiones en infraestructura defensiva reflejan el nivel de amenaza que GTIG está documentando: 308 petabytes de telemetría industrial en 2025 en más de cuatro millones de identidades, puntos finales y activos en la nube, generando casi 30 millones de pistas de investigación. Ningún equipo humano puede procesar ese volumen. La IA defensiva no es opcional. Esta es la única forma de igualar la velocidad de la IA atacante.

Brechas políticas

La administración Trump ha bloqueado la expansión de Mythos de Anthropic, la IA de descubrimiento de vulnerabilidades más poderosa jamás construida, incluso cuando el informe GTIG documentó que delincuentes y actores patrocinados por el estado usaban la IA para encontrar y explotar las mismas fallas para las que Mythos fue diseñado. El conflicto de políticas es que el gobierno de Estados Unidos está limitando simultáneamente el acceso a la IA defensiva y enfrentando un panorama hostil en el que se está desplegando IA ofensiva a escala industrial.

Los bancos del Reino Unido recibieron su informe Mitos a los pocos días de la crisis de acceso europea, que ilustró la batalla entre gobiernos e instituciones financieras para obtener acceso a herramientas de seguridad de IA que coincidan con las capacidades descritas por GTIG. Los adversarios documentados en el informe GTIG, actores patrocinados por estados en China, Corea del Norte y Rusia, ya estaban usando IA para encontrar días cero, crear malware autónomo y atacar software de IA, mientras que ninguno de los gobiernos de la UE documentados en el informe GTIG tenía acceso a la IA más avanzada para la detección de vulnerabilidades convocada por los ministros de finanzas de la eurozona.

El informe GTIG tiene 33 páginas de evidencia de que la carrera armamentista de ciberseguridad de la IA ha pasado de la especulación a la realidad operativa. Los actores criminales están utilizando la IA para descubrir vulnerabilidades de día cero y planificar eventos de explotación masiva. Grupos patrocinados por el Estado están construyendo arsenales de explotación mejorados con IA. El malware autónomo utiliza API comerciales de IA para navegar por los dispositivos de las víctimas sin supervisión humana. La cadena de suministro que conecta los modelos de IA con los sistemas empresariales está bajo ataque activo. La IA defensiva de Google encontró el día cero antes de que los atacantes lo desplegaran. La pregunta que queda sin respuesta en el informe es cuántos días cero encuentran los actores cuyo trabajo Google aún no ha identificado.

Source link

Redacción - ACN

Somos un portal de noticias líder en la República Dominicana que se especializa en ofrecer una cobertura informativa integral. Desde eventos políticos y económicos hasta avances científicos y noticias de entretenimiento, este sitio web es tu fuente confiable para mantenerse al día con los acontecimientos más relevantes tanto a nivel nacional como internacional. Además de ofrecer informes actualizados, ACN también se destaca por sus análisis en profundidad y sus entrevistas exclusivas que proporcionan una comprensión más completa de las noticias.

Artículos Relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Volver arriba botón