
Registro en París, citación a Elon Musk y presión británica: X y Grok bajo lupa por algoritmo, datos y deepfakes sexuales en Europa. en 2026.
La sede francesa de X en París ha sido registrada por la unidad de cibercrimen de la Fiscalía en el marco de una investigación penal que ya venía cocinándose desde 2025 y que ahora se ha ensanchado con un ingrediente explosivo: deepfakes sexuales, material de abuso infantil y el papel del chatbot Grok dentro del propio ecosistema de la red social. Casi al mismo tiempo, en Reino Unido se ha abierto una investigación nueva sobre Grok por protección de datos y por la creación de imágenes íntimas manipuladas, con especial foco en contenidos no consentidos.
El movimiento no es simbólico ni decorativo: hay citas formales ya fijadas para el 20 de abril de 2026, con el dueño de la plataforma llamado a una “audición voluntaria” junto a Linda Linda Yaccarino, ex consejera delegada, y con empleados convocados como testigos en esa misma semana. Y el telón de fondo mete presión extra porque, apenas horas antes, se había confirmado la compra de xAI por SpaceX, una operación de dimensiones gigantescas que coloca a Grok y a X dentro de una estructura empresarial todavía más difícil de separar cuando empiezan a llover investigaciones.
La mañana del registro en París
La Fiscalía de París ha explicado que el registro responde a una investigación preliminar abierta por su unidad especializada en delitos tecnológicos, con apoyo de Europol y de las unidades policiales francesas de cibercrimen. La fotografía general es clara aunque el expediente sea un laberinto: se investiga si la plataforma —o personas con capacidad de decisión dentro de ella— ha incurrido en abuso de algoritmos, extracción fraudulenta de datos y, en el tramo más sensible, complicidad en la difusión de contenidos ilícitos ligados a menores y a manipulación sexual de imágenes.
En lenguaje menos jurídico, el mensaje es éste: el caso ya no va solo de “lo que aparece” en una red social, sino de cómo se empuja, cómo se amplifica, cómo se deja correr y qué sistemas internos permiten que algo se convierta en una autopista. En una investigación así, el registro sirve para recabar documentación, trazas técnicas y comunicaciones internas, y para fijar una idea que en Europa se repite cada vez más: si la plataforma controla la arquitectura, la plataforma no puede fingir que solo alquila paredes.
Hay un detalle con carga política, casi teatral, que explica el clima: la propia Fiscalía de París comunicó que dejará de usar X como canal y que se moverá a LinkedIn y Instagram. No es solo un gesto de “me voy de aquí”, es una forma de decir no quiero depender de tu altavoz mientras te investigo, y también un modo de blindar la comunicación institucional en medio de acusaciones cruzadas sobre moderación, sesgos y tensiones con la libertad de expresión.
De la denuncia de Éric Bothorel a una causa penal que crece
El origen formal del caso se remonta al 12 de enero de 2025, cuando llegaron dos avisos a la Fiscalía: uno de ellos del diputado francés Éric Bothorel, vinculado al partido Renaissance, y otro de perfil técnico desde la administración. La sospecha inicial era concreta: cambios y decisiones en el algoritmo podían estar reduciendo la diversidad ideológica, alterando el funcionamiento “normal” del sistema de tratamiento automatizado de datos y, en la práctica, distorsionando lo que se ve y lo que no se ve.
La investigación, en ese primer capítulo, se movía en términos de sesgo algorítmico y de posibles accesos irregulares a datos. El 9 de julio de 2025 el expediente se asignó a la policía para avanzar en diligencias, y ese mismo verano la compañía ya tensó la cuerda al calificar la investigación de políticamente motivada y negarse a entregar determinados elementos que, según su posición, afectarían a secretos empresariales y a la propia libertad de expresión. Ahí se abrió una grieta típica: el regulador y la justicia quieren ver cómo funciona el motor; la plataforma responde que el motor es propiedad privada y que enseñar el plano es un regalo a competidores y a posibles atacantes.
El punto de inflexión llegó cuando el caso dejó de ser una discusión de laboratorio —algoritmos, métricas, acceso— para entrar en terreno penal duro: la investigación se amplió con sospechas de complicidad en la posesión y difusión de imágenes pornográficas de menores, con la aparición de deepfakes sexuales y con referencias a delitos ligados a la negación de crímenes contra la humanidad, una materia especialmente sensible en Francia por su marco legal y por su memoria histórica. A partir de ahí, el expediente pasó de parecer una batalla de transparencia a parecer un asunto de daño social y responsabilidad criminal.
Lo que subraya la gravedad no es solo la lista de posibles delitos, que ya de por sí impresiona, sino la mezcla: tecnología + menores + falsificación sexual + negacionismo. Son cuatro palabras que, puestas juntas, activan todas las alarmas a la vez. Y cuando eso sucede, Europa suele dejar de hablar en condicional.
Grok, la chispa que convirtió el humo en incendio
Grok, desarrollado por xAI e integrado en X, no aparece aquí como un accesorio simpático, sino como el instrumento que permitió producir contenido a escala industrial con un coste bajísimo para quien lo pide y un coste altísimo para quien lo sufre. El escándalo estalló tras una oleada de imágenes sexualizadas generadas a demanda —incluidas imágenes que aparentaban implicar a menores— y con la circulación de material íntimo manipulado que encaja en lo que varios países ya describen como abuso de imagen o violencia digital.
Aquí hay una diferencia que en tribunales importa: no se discute solo la existencia de usuarios maliciosos, sino si el diseño del sistema incorporaba salvaguardas suficientes, si se permitía generar y compartir el contenido con una fricción mínima, y si las barreras llegaron tarde, como un paraguas abierto después del chaparrón. X anunció restricciones: bloqueo de la generación de imágenes sexualizadas en publicaciones públicas y recortes adicionales en jurisdicciones donde ese material es ilegal. Aun así, se ha señalado que el sistema podía seguir produciendo resultados problemáticos incluso cuando se le pedía explícitamente que no lo hiciera, un tipo de fallo que, en términos de cumplimiento, suena a control insuficiente.
El episodio más venenoso para el caso francés no fue únicamente el porno deepfake. Hubo también polémicas por respuestas de Grok sobre el Auschwitz-Birkenau que se asociaron a discursos de negacionismo: cuando un chatbot se desliza hacia frases típicas del repertorio negacionista y lo hace en público, el problema deja de ser “un error” y pasa a ser contenido potencialmente delictivo en determinados marcos nacionales. Grok corrigió mensajes después, pero en investigaciones así la corrección no borra la huella: la huella sirve para preguntar quién ajustó el modelo, con qué límites, con qué filtros, y qué trazabilidad existe sobre lo que se generó y se difundió.
En paralelo, el caso se ha cargado de una cuestión delicada y muy francesa: la sospecha de manipulación de un sistema de tratamiento automatizado de datos “en banda organizada”, una formulación que, traducida al terreno cotidiano, apunta a que no se trataría solo de “fallos” o “malas decisiones”, sino de posibles mecanismos coordinados para extraer datos o alterar el funcionamiento de la plataforma de manera que encaje en conductas penales. Es el tipo de sospecha que obliga a mirar dentro, y por eso el registro tiene sentido: sin documentación técnica y sin pruebas digitales, todo se queda en ruido.
Londres aprieta por dos lados: ICO y Ofcom
La respuesta británica se ha movido en dos carriles que no siempre van de la mano, pero que aquí se encuentran. Por un lado, el regulador de privacidad, el Information Commissioner’s Office, ha abierto una investigación formal sobre cómo se procesaron datos personales en el desarrollo y despliegue de Grok y sobre la generación de imágenes sexualizadas no consentidas, incluidas aquellas que implican a menores. El enfoque es típicamente “datos y garantías”: qué información se usó, de dónde salió, si había base legal para tratarla, si se aplicaron medidas de minimización, si se hicieron evaluaciones de impacto y si el sistema, tal como estaba, creaba un riesgo de daño significativo.
Por otro lado, Ofcom mantiene una investigación separada sobre la plataforma X en relación con sus obligaciones bajo la Online Safety Act 2023. Ahí el lenguaje cambia: no se trata de privacidad, sino de seguridad y de deberes concretos para prevenir que usuarios encuentren contenido ilegal y para impedir que menores accedan a contenido dañino. El caso abierto el 12 de enero de 2026 pone el foco en si la empresa hizo evaluaciones adecuadas de riesgo —de contenido ilegal y de acceso por menores— y si implantó sistemas eficaces para retirar con rapidez material ilícito y para evitar que este tipo de contenido estuviera disponible.
Las consecuencias potenciales en Reino Unido no se quedan en un tirón de orejas. Ofcom tiene capacidad para imponer sanciones de hasta 18 millones de libras o el 10% de los ingresos mundiales que computen, lo que sea mayor, y en casos graves puede pedir al tribunal medidas para cortar servicios de pago, publicidad o incluso bloquear el acceso en el país si se considera proporcionado para evitar un daño significativo. Ese es el matiz que cambia el tablero: ya no es solo “cumple o te multo”, es “cumple o te pueden apagar partes del negocio”.
La combinación de Information Commissioner’s Office y Ofcom produce una pinza incómoda: una mano pregunta por datos y consentimiento, la otra exige control de riesgos y retirada. Si una empresa intenta responder solo con un parche técnico, puede chocar con el otro carril. Si responde solo con procesos y promesas, puede chocar con la evidencia de resultados. Y si responde con el argumento de la libertad de expresión, se mete en un terreno resbaladizo cuando el asunto es abuso sexual de imagen y menores.
Bruselas sube el volumen: DSA, multa y preservación de pruebas
En el nivel europeo, la presión venía creciendo por otra vía: el marco del Digital Services Act, la ley que obliga a las grandes plataformas a evaluar riesgos sistémicos y a mitigarlos de forma demostrable. La Comisión ha abierto una investigación formal relacionada con Grok y con los sistemas de recomendación, y además ordenó conservar documentación y datos vinculados al chatbot hasta finales de 2026, un movimiento que, en la práctica, suena a “no borres nada” porque puede ser relevante para evaluar cumplimiento y para sostener futuras decisiones.
El contexto aquí no es neutro: X ya recibió en diciembre de 2025 una multa de 120 millones de euros por incumplimientos de transparencia, con especial énfasis en prácticas calificadas como engañosas en el sistema de verificación, en carencias del repositorio de anuncios y en obstáculos al acceso de investigadores a datos públicos. Ese precedente importa porque dibuja un patrón: Europa no está discutiendo con X desde cero, está discutiendo con una plataforma que ya ha sido sancionada por cómo se presenta, cómo rinde cuentas y cómo deja mirar.
La investigación sobre Grok añade un ángulo nuevo: no solo es transparencia, es riesgo de daño y gestión de una herramienta generativa dentro de una red social masiva. A efectos europeos, el foco suele estar en si la empresa evaluó el riesgo antes de desplegar, si previó usos abusivos, si estableció límites efectivos y si reaccionó con rapidez. Cuando el material afecta a menores o se aproxima al “material de abuso sexual infantil”, el margen de tolerancia se reduce hasta casi desaparecer. Y ahí, por pura lógica regulatoria, empiezan las preguntas sobre diseño: si el sistema permite “desnudar” imágenes o producir contenido íntimo manipulado, la discusión ya no es si el usuario se portó mal, sino si el producto estaba construido con puertas demasiado fáciles de abrir.
Abril en el calendario y un gigante bajo examen europeo
La fecha del 20 de abril de 2026 queda como un clavo en la agenda porque convierte un debate abstracto en una escena real: sala, preguntas, respuestas, contradicciones, y un expediente que mezcla algoritmos con delitos. La Fiscalía de París no solo quiere oír al dueño y a la ex consejera delegada; también ha citado a personal de X como testigos, señal de que el caso busca reconstruir decisiones internas, flujos de trabajo y responsabilidades. Si la investigación confirma que hubo cooperación insuficiente o resistencias sistemáticas, la historia puede endurecerse. Si aparecen pruebas de controles serios y fallos puntuales, el relato podría matizarse. Pero el registro ya indica que no se queda en declaraciones.
En medio de todo, la compra de xAI por SpaceX añade un peso extra: el problema de Grok deja de ser “la travesura de una startup” y se convierte en un riesgo dentro de un conglomerado con contratos, ambiciones y una exposición pública enorme, donde también aparece Starlink como infraestructura estratégica. Cuando Europa investiga, mira a la empresa que tiene delante, sí, pero también mira el ecosistema. Y ese ecosistema acaba de hacerse más grande.
El clima político acompaña. En España, Pedro Sánchez ha defendido endurecer el marco contra abusos de grandes plataformas, con propuestas que incluyen criminalizar la manipulación algorítmica y la amplificación de contenido ilegal, además de avanzar hacia restricciones de acceso de menores a redes sociales mediante verificación de edad más seria que un simple “tengo 18”. Grecia ha planteado líneas similares para adolescentes. No es el núcleo del caso francés, pero explica por qué el episodio de Grok cae en un terreno ya empapado: Europa está en modo contención cuando el daño se cruza con menores, con sexualización no consentida y con herramientas capaces de fabricar falsificaciones en serie.
X sostiene que todo esto es una ofensiva política y un ataque a la libertad de expresión. Las autoridades europeas, por su parte, lo están encuadrando como otra cosa: cumplimiento de la ley, protección de menores, prevención de delitos y control de riesgos. Entre esos dos relatos, lo que pesa al final no es el eslogan sino el expediente: qué se pidió, qué se entregó, qué se sabía, cuándo se supo, quién lo aprobó, qué barreras se pusieron y cuáles fallaron. A partir de aquí, lo que empieza en París puede terminar dictando cómo se diseñan y se despliegan chatbots generativos dentro de redes sociales en toda Europa, con una moraleja fría y nada literaria: cuando una máquina puede fabricar daño con un clic, el “no era mi intención” llega tarde, y además no sirve de mucho.
🔎 Contenido Verificado ✔️
Este artículo ha sido redactado basándose en información procedente de fuentes oficiales y confiables, garantizando su precisión y actualidad. Fuentes consultadas: ICO, Ofcom, El País, Cadena SER, Comisión Europea, Reuters.
Alessandro Elia
Fuente de esta noticia: https://donporque.com/francia-registra-las-oficinas-de-x/
También estamos en Telegram como @prensamercosur, únete aquí: Telegram Prensa Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1
También estamos en Telegram como @prensamercosur, únete aquí: https://t.me/prensamercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://www.whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1W
ESPACIO PUBLICITARIO
