Los LLM son vulnerables al envenenamiento de datos y a la inyección rápida, advierten las autoridades del Reino Unido


El Centro Nacional de Seguridad Cibernética (NCSC) del Reino Unido advierte a las organizaciones que sean conscientes de los riesgos cibernéticos inminentes asociados con la integración de grandes modelos de lenguaje (LLM) como ChatGPT en sus negocios, productos o servicios.
En una serie de publicaciones de blog, el NCSC enfatizó que la comunidad tecnológica global aún no comprende completamente las fortalezas, debilidades y (lo más importante) las debilidades del LLM. "Se podría decir que nuestra comprensión del LL.M. todavía está en 'beta'", dijo la autoridad.
Una de las vulnerabilidades de seguridad más ampliamente reportadas de los LLM existentes es su susceptibilidad a ataques maliciosos de "inyección rápida". Ocurren cuando un usuario crea una entrada destinada a hacer que el modelo de IA se comporte de manera no deseada, como crear contenido ofensivo o revelar información confidencial.
Además, los datos en los que se entrenan los LLM crean un doble riesgo. En primer lugar, una gran cantidad de estos datos se recopilan de la Internet abierta, lo que significa que pueden incluir contenido inexacto, controvertido o sesgado.
Póngase al día con las discusiones de nuestra conferencia
Vea videos de nuestras charlas pasadas gratis con TNW All Access →
En segundo lugar, los ciberdelincuentes no sólo pueden distorsionar los datos disponibles para realizar prácticas maliciosas (también conocido como "intoxicación de datos"), sino que también pueden utilizarlos para ocultar ataques de inyección instantánea. Así, por ejemplo, los titulares de cuentas de un banco asistidos por IA podrían ser engañados para que transfieran dinero a los atacantes.
"El auge del LLM es sin duda un momento muy emocionante en la tecnología, y muchas personas y organizaciones (incluido el NCSC) quieren explorarlo y beneficiarse de él", dijo la autoridad.
"Sin embargo, las organizaciones que utilizan LLM para crear servicios deben ser cautelosas, tal como lo harían si estuvieran utilizando un producto o una biblioteca de códigos que está en versión beta", añadió el NCSC. Es decir, con cuidado.
Las autoridades del Reino Unido están instando a las organizaciones a establecer políticas de seguridad cibernética y garantizar que puedan hacer frente al "peor de los casos" de lo que sus aplicaciones basadas en LLM pueden hacer.



