La X de Musk se ha comprometido con un regulador del Reino Unido por discurso de odio, con la investigación de Groke aún abierta

La plataforma de Elon Musk acordó revisar las publicaciones ilegales de odio y terrorismo en un plazo promedio de un día, limitar los grupos prohibidos en el Reino Unido e informar trimestralmente al regulador. Se está llevando a cabo una investigación separada de Ofcom.
X acordó una serie de compromisos con Ofcom sobre discurso de odio ilegal y contenido terrorista. El regulador de comunicaciones de Gran Bretaña el viernesDespués de meses de estrés creciente durante el otoño y el invierno.
Según el acuerdo, la plataforma de Elon Musk revisará las publicaciones sospechosas de odio y terrorismo ilegales en un promedio de 24 horas, evaluará al menos el 85% en 48 horas y presentará datos trimestrales de desempeño al regulador durante el próximo año.
La plataforma se ha comprometido a limitar el acceso del Reino Unido a cuentas administradas por o en nombre de organizaciones prohibidas según las leyes antiterroristas británicas y a contratar expertos externos para revisar los flujos de informes que los grupos de la sociedad civil han descrito repetidamente como opacos.
La redacción es importante aquí, ya que la falta de recepción o acción clara sobre el contenido marcado ha sido el tema de la mayoría de las quejas presentadas contra X ante Ofcom durante el año pasado.
Suzanne Cater, directora de control de seguridad en línea de Ofcom, dijo en un comunicado que "el contenido terrorista y el discurso de odio ilegal persisten en algunos de los sitios de redes sociales más grandes", y que la brecha es "particularmente importante en el Reino Unido debido a una serie de recientes crímenes motivados por el odio en la comunidad judía del país".
Imran Ahmed, del Centro para Contrarrestar el Odio Digital, dijo que las promesas de la "campaña sostenida" siguieron al ataque del año pasado a la sinagoga de Heaton Park, cerca de Manchester.
Los acontecimientos en Gran Bretaña fueron difíciles de asimilar. El ataque a Heaton Park siguió a un incidente mortal en el norte de Londres el mes pasado que la policía está tratando como terrorismo, y el propio seguimiento del CCDH después del ataque a Golders Green documentó lo que describió como una avalancha de publicaciones antisemitas en X.El conjunto de datos CCDH subyacente está aquí)
Los nuevos compromisos no abordan directamente esos eventos. Colocaron el piso procesal debajo de ellos.
La recepción fue mixta. Danny Stone, director ejecutivo de Antisemitismo Policy Trust, describió el paquete como "un buen comienzo", pero dijo que X todavía "falla en muchos frentes" a la hora de abordar el racismo.
La propia Ofcom tuvo cuidado de señalar esto. Una investigación formal de XEl sistema de la empresa para gestionar contenidos ilegales, incluidas las preguntas planteadas por su asistente Grok AI, sigue abierto. El acuerdo del viernes es un compromiso de compromiso, no un acuerdo.
En paralelo discurre una pista de groc separada. Ofcom está examinando cómo X maneja las imágenes sexualizadas generadas por IA creadas por chatbots y, a principios de este mes, restringió las funciones de edición de fotografías de X Grok a los usuarios que pagan. La controversia de los deepfake y la amenaza de una prohibición en el Reino Unido. Las promesas del viernes no abordan ese tema. Se sientan uno al lado del otro.
El contexto más amplio es familiar para cualquiera que siga el proceso regulatorio de la plataforma. La Comisión Europea tiene un proceso abierto sobre si X está fallando en prevenir el discurso de odio y la empresa La mayor fuente de confusión se encuentra en las propias observaciones de la Comisión.. Los reguladores australianos y singapurenses han intervenido en cuestiones adyacentes. Los contratos del Reino Unido caen dentro de una fila y no al final de una fila.
De hecho, la nueva promesa es su expresión operativa. Marco legal de seguridad en línea Que se convirtió en ley en 2023, ahora exige que las plataformas más grandes eliminen rápidamente el contenido ilegal o se enfrenten a multas de hasta el 10% de la facturación global.
El compromiso de revisión de 24 horas es el tipo de métrica mensurable que los reguladores quieren en papel. 85 %: en 48 horas, el respaldo se lee como un número para que Ofcom pueda auditarlo.
Los datos trimestrales, que se distribuirán durante el próximo año, serán el primer conjunto de datos granulares para que los reguladores evalúen si los compromisos del lado de la plataforma han movido la eliminación de contenido ilegal en la dirección prevista por la ley.




