El pasado 3 de febrero de 2026, el primer ministro de España, Pedro Sánchez, pronunció un contundente discurso durante la Cumbre de Gobiernos Mundiales en Dubái, donde anunció la intención del gobierno español de investigar la supuesta complicidad de gigantes tecnológicos como X, Meta y TikTok en la difusión de contenido de abuso sexual infantil generado por inteligencia artificial. Sánchez reveló que el Consejo de Ministros invocaría el artículo 8 del Estatuto Orgánico de la Fiscalía para solicitar la investigación de estos delitos, una decisión que refleja la creciente preocupación mundial por la seguridad infantil en el entorno digital.
La respuesta de Sánchez no se limita solo a la investigación, sino que también incluye propuestas legislativas más amplias para regular el uso de las redes sociales en España. Durante su intervención en Dubái, propuso la prohibición del acceso a las redes sociales para los menores de 16 años, una medida que sigue el ejemplo de Australia, el primer país en implementar tal prohibición. Este enfoque se produce en un contexto donde otros países, como Francia y Dinamarca, están considerando regulaciones similares, subrayando la urgencia de abordar el creciente problema de la interacción de los jóvenes con plataformas que podrían exponerlos a contenidos dañinos.
Criticando abiertamente a los gigantes tecnológicos, Sánchez describió a las redes sociales como ‘un estado fallido’, donde las leyes se ignoran y prevalecen la desinformación y el discurso de odio. Este es un llamado a la acción que busca no solo la protección de los menores, sino también un cambio en la forma en que las plataformas gestionan el contenido que sus usuarios pueden acceder. Con esta crítica, el primer ministro busca plantear un debate sobre la responsabilidad social de las empresas tecnológicas en la gestión de sus plataformas.
En respuesta a estas acusaciones, tanto Meta como TikTok han defendido sus políticas de protección contra la explotación infantil. Meta, en particular, ha declarado que sus herramientas de inteligencia artificial están diseñadas para prevenir la generación de imágenes inapropiadas. TikTok, por su parte, enfatizó su compromiso con la seguridad de los jóvenes y sus esfuerzos por implementar tecnologías avanzadas para detectar y prevenir el abuso en la plataforma. Sin embargo, la oposición a estas iniciativas parece estar ganando impulso, con usuarios y expertos que cuestionan la efectividad de sus medidas.
Mientras tanto, la situación se complica aún más con investigaciones paralelas en otros países europeos, donde se están llevando a cabo indagaciones sobre X por el manejo de contenido generado por su chatbot Grok. En Francia, las inversiones para regular el seguimiento de este contenido se han intensificado, llevando a registros en las oficinas de X en París. La situación representa un clima de creciente presión sobre las grandes plataformas, en donde la comunidad internacional comienza a exigir mayor transparencia y responsabilidad en la gestión de contenidos que afectan a la sociedad.















