Florida lanza la primera investigación criminal de IA en OpenAI


El fiscal general James Uthmeier dijo que los fiscales revisaron los registros de chat que mostraban que ChatGPT le dio al sospechoso consejos sobre armas, municiones y sincronización. La investigación es la primera investigación criminal de una empresa de inteligencia artificial por su presunto papel en un tiroteo masivo en Estados Unidos.
El fiscal general de Florida, James Uthmyer, anunció el martes que la Oficina del Fiscal Estatal del estado abrió una investigación criminal sobre OpenAI por el presunto papel de su chatbot ChatGPT en el tiroteo masivo de abril de 2025 en la Universidad Estatal de Florida.
Dos murieron y seis resultaron heridos en un tiroteo cerca del sindicato de estudiantes en el campus de FSU en Tallahassee, dirigido por el estudiante universitario Phoenix Eckner (21) en ese momento. Su juicio está previsto que comience el 19 de octubre de 2026. Más de 200 mensajes de IA se han introducido como prueba en el caso.
Uthmeyer dijo que una revisión preliminar de los registros de chat ChatGPT de Eckner mostró que el sospechoso usó la herramienta para buscar consejo antes de llevar a cabo el ataque, incluyendo qué tipo de arma usar, qué munición era apropiada, a qué hora del día encontrar más gente en el campus y en qué parte del campus sería alta la población.
"Mis fiscales lo vieron y me dijeron, si hay una persona al otro lado de esa cortina, la acusaremos de asesinato". Uthmeyer lo dijo en una conferencia de prensa en Tampa.
"ChatGPT le dio al tirador consejos importantes antes de cometer un crimen tan atroz. No podemos tener robots de inteligencia artificial que aconsejen a las personas sobre cómo matar a otros".
OpenAI ha sido citada para obtener información sobre sus políticas y materiales de capacitación internos con respecto a las amenazas de los usuarios de dañar a otros y autolesiones, así como sus políticas para denunciar posibles delitos.
La portavoz de la empresa, Kate Waters, dijo: "El tiroteo masivo del año pasado en la Universidad Estatal de Florida fue una tragedia, pero chatgpt no es responsable de este terrible crimen".
OpenAI dijo que compartió de manera proactiva información sobre la cuenta del presunto tirador con las autoridades después del tiroteo y continúa cooperando con las autoridades. La empresa sostiene que ChatGPT sólo proporciona comentarios generales y objetivos basados en información ampliamente disponible.
Una investigación criminal contra una empresa de inteligencia artificial por su presunto papel en un tiroteo masivo no tiene precedentes, como señalan múltiples expertos legales, en Estados Unidos.
Uthmeier ya había anunciado una investigación civil sobre el papel de ChatGPT en el tiroteo de la FSU, que está en curso. Los abogados que representan a la familia de una de las víctimas han anunciado planes para demandar a OpenAI.
La investigación criminal es un avance significativo: abre la cuestión de si una empresa de inteligencia artificial puede ser considerada penalmente responsable por las reacciones de su sistema, una cuestión que no tiene precedentes legales establecidos según la legislación estadounidense actual.
La investigación de Florida es parte de un patrón más amplio de presión legal sobre las empresas de chatbots de IA por su supuesta contribución a incidentes violentos.
OpenAI ya enfrenta una demanda de la familia de un tiroteo masivo en febrero de 2026 en Columbia Británica que mató a ocho personas e hirió a docenas más, un presunto pistolero de 18 años que discutió la situación de violencia armada con ChatGPT y fue excluido de la plataforma meses antes del tiroteo, pero, según se informa, otra cuenta evadió la detección.
OpenAI dijo que identificó y prohibió al usuario, pero no alertó a las autoridades en ese momento. Por otra parte, una demanda por muerte por negligencia presentada contra Google en marzo por el suicidio de un hombre de Florida alega que su chatbot Gemini empujó al hombre a planificar un ataque de asesinato en masa.
OpenAI dijo que está trabajando con expertos en salud mental para mejorar la forma en que ChatGPT responde a los síntomas de angustia mental o emocional y ha tomado medidas para fortalecer sus salvaguardias después del caso de Columbia Británica, incluido el cambio de cuándo alerta a las autoridades sobre actividades potencialmente violentas.



