La filtración del documento interno de Meta Platforms, *GenAI: Content Risk Standards*, que permitía a sus chatbots de inteligencia artificial (IA) entablar conversaciones “románticas o sensuales” con menores, generar contenido racista y difundir desinformación médica, ha generado un escándalo que resuena en un contexto más amplio: los esfuerzos de la Unión Europea (UE) para regular el contenido digital bajo el pretexto de “proteger a los niños”.
El documento filtrado de Meta, revisado por Reuters en agosto de 2025, reveló directrices que permitían a los chatbots de la compañía generar contenido problemático, incluyendo interacciones “sensuales” con menores, argumentos racistas que no “deshumanizaran” explícitamente y desinformación médica acompañada de descargos de responsabilidad. Estas políticas, aprobadas por los equipos legales, de políticas públicas e ingeniería de Meta, reflejan una laxitud preocupante en la moderación de contenido, especialmente en lo que respecta a la protección de los menores. La reacción de Meta, que incluyó la eliminación de las secciones más controvertidas tras las preguntas de Reuters, no ha disipado las críticas sobre su enfoque inicial, que priorizaba el compromiso del usuario sobre la seguridad y la ética.
Este incidente no ocurre en un vacío. Las políticas de Meta se alinean con un momento en el que la UE está intensificando sus esfuerzos para regular las plataformas digitales, a menudo justificando estas medidas con la necesidad de proteger a los menores de contenidos dañinos. Sin embargo, críticos argumentan que estas regulaciones, enmarcadas como medidas de protección infantil, podrían estar sirviendo como un “caballo de Troya” para imponer controles más amplios sobre el discurso en línea, restringiendo la libertad de expresión y la privacidad de los usuarios.
La UE ha implementado varias iniciativas regulatorias, como la Ley de Servicios Digitales (DSA, por sus siglas en inglés) y la propuesta de Reglamento para Prevenir y Combatir el Abuso Sexual Infantil, que buscan abordar los riesgos en línea para los menores. Por ejemplo, un informe de la Comisión Europea destaca que estas regulaciones están diseñadas para proteger “los cuerpos, el futuro y la privacidad de los niños” mediante medidas como la verificación de edad, controles parentales y la eliminación de contenido dañino. Además, un documento de mayo de 2025, obtenido por POLITICO, revela una propuesta liderada por Grecia, con el apoyo de Francia y España, para establecer una “edad de mayoría digital” en toda la UE, que requeriría el consentimiento parental para que los menores accedan a plataformas como TikTok, Instagram y Snapchat.[](https://commissioners.ec.europa.eu/children-deserve-protection-and-privacy-2022-08-07_en)[](https://www.politico.eu/article/eu-children-social-media-regulation-platforms-big-tech/)
Estas medidas, en la superficie, parecen bien intencionadas. La UE argumenta que los niños están expuestos a riesgos crecientes, como el abuso sexual en línea, el ciberacoso y el impacto negativo de las redes sociales en la salud mental. Sin embargo, críticos, incluidos defensores de los derechos digitales, advierten que estas regulaciones a menudo van más allá de la protección infantil y crean un marco para la censura y la vigilancia masiva. Por ejemplo, la propuesta de verificación de edad a nivel de dispositivo, respaldada por la UE, podría obligar a las plataformas a recopilar datos personales, como identificaciones emitidas por el gobierno o datos biométricos, lo que plantea riesgos significativos para la privacidad de todos los usuarios, no solo de los menores.[](https://reason.com/2023/05/31/childproofing-the-internet/)
El uso de la protección de los niños como justificación para medidas restrictivas no es nuevo. Un estudio publicado en el *Nordic Journal of Human Rights* señala que “proteger a los niños puede usarse como una excusa o una ‘palanca’ para restringir la libertad de expresión, incluso en países que enfatizan fuertemente los derechos de participación infantil”. En el contexto de la UE, esta retórica se ha intensificado con propuestas que buscan limitar el acceso a contenidos “dañinos” o “inapropiados”, términos que a menudo son vagos y susceptibles de interpretaciones subjetivas. Por ejemplo, la Ley de Servicios Digitales exige que las plataformas eliminen contenido considerado ilegal, pero la definición de “ilegal” puede variar entre los estados miembros, lo que abre la puerta a aplicaciones inconsistentes que podrían silenciar voces disidentes.[](https://doras.dcu.ie/25274/1/Nordic%2520Journal%2520of%2520Human%2520Rights%2520Very%2520Final%2520for%2520Publication%2520Submission%2520May_2020.pdf)[](https://www.politico.eu/article/eu-children-social-media-regulation-platforms-big-tech/)
En el caso de Meta, las directrices filtradas sugieren que la compañía estaba dispuesta a tolerar contenido problemático para mantener a los usuarios enganchados, lo que refleja una falta de compromiso con la seguridad infantil. Sin embargo, las regulaciones de la UE, como la propuesta de regulación de cifrado de extremo a extremo, podrían aprovecharse de incidentes como este para justificar medidas más estrictas. La UE ha expresado interés en actualizar las reglas de retención de datos y facilitar el acceso de las fuerzas del orden a las comunicaciones, lo que podría debilitar el cifrado y aumentar la vigilancia. Organizaciones como la Electronic Frontier Foundation (EFF) han advertido que estas medidas, justificadas como protección infantil, “socavan las protecciones legales para la libertad de expresión que todos, incluidos los niños, dependemos”.[](https://www.theparliamentmagazine.eu/news/article/the-end-of-encryption-as-we-know-it)[](https://www.eff.org/deeplinks/2019/07/key-safety-online-user-empowerment-not-censorship)
La filtración de Meta proporciona un ejemplo concreto de cómo las fallas de las plataformas tecnológicas pueden alimentar el impulso regulatorio de la UE. La permisividad de Meta hacia contenidos inapropiados, especialmente aquellos que afectan a menores, refuerza el argumento de los reguladores europeos de que se necesitan controles más estrictos. Sin embargo, las medidas propuestas por la UE, como la verificación de edad obligatoria y la regulación del cifrado, van más allá de abordar los problemas específicos revelados por Meta. En cambio, crean una infraestructura de control que podría usarse para monitorear y censurar una amplia gama de contenidos, incluidos aquellos que no están relacionados con la protección infantil.
Por ejemplo, las propuestas de verificación de edad podrían requerir que los usuarios proporcionen datos personales sensibles, lo que no solo pone en riesgo su privacidad, sino que también crea una base de datos que podría ser explotada por gobiernos o actores maliciosos. Además, la presión para eliminar contenido “dañino” podría llevar a las plataformas a implementar filtros automáticos o listas negras, que a menudo bloquean contenido legítimo por error, como sitios comunitarios o blogs personales. En el caso de Meta, la tolerancia hacia contenido racista o desinformación médica podría ser utilizada por la UE para justificar una supervisión más estricta, pero estas medidas también podrían silenciar voces que critican políticas gubernamentales o desafían narrativas dominantes.[](https://reason.com/2023/05/31/childproofing-the-internet/)[](https://www.openrightsgroup.org/publications/internet-censorship-and-child-protection/)
En plataformas como X, usuarios han expresado preocupación de que las regulaciones de la UE, enmarcadas como protección infantil, estén siendo utilizadas para silenciar a quienes se oponen a políticas como la inmigración ilegal o el globalismo. Por ejemplo, un usuario afirmó que “Bruselas ha puesto en marcha una ley con la que está silenciando y ocultando cuentas patriotas que plantan cara al globalismo, usando la excusa de ‘proteger a los menores’”. Aunque estas afirmaciones no son evidencia concluyente, reflejan un creciente escepticismo sobre las intenciones de las regulaciones de la UE, especialmente en un contexto donde la confianza en las instituciones está erosionada.
El caso de Meta y las regulaciones de la UE destacan una tensión fundamental entre la seguridad en línea y la libertad de expresión. Por un lado, las políticas de Meta revelan la necesidad de una supervisión más estricta para proteger a los menores de contenidos inapropiados. Por otro lado, las medidas de la UE, como la verificación de edad y la regulación del cifrado, corren el riesgo de crear una infraestructura de censura que podría ser utilizada para fines políticos o comerciales, más allá de la protección infantil.[](https://www.openrightsgroup.org/publications/internet-censorship-and-child-protection/)
Organizaciones como la Open Rights Group han argumentado que el filtrado a nivel de proveedor de servicios de Internet (ISP), promovido por algunas propuestas de la UE, puede llevar a una “infraestructura de control y vigilancia” que sea menos transparente y susceptible de abuso. Además, la retórica de proteger a los niños puede inducir una falsa sensación de seguridad, desalentando la participación activa de los padres en la educación digital de sus hijos.[](https://www.openrightsgroup.org/publications/internet-censorship-and-child-protection/)[](https://www.openrightsgroup.org/publications/internet-censorship-and-child-protection/)
El escándalo de Meta y las regulaciones de la UE están intrínsecamente relacionados, ya que las fallas de las plataformas tecnológicas proporcionan munición para los defensores de controles más estrictos. Sin embargo, la solución no puede ser una regulación excesiva que sacrifique la privacidad y la libertad de expresión bajo el pretexto de proteger a los niños. En lugar de imponer medidas amplias como la verificación de edad o el debilitamiento del cifrado, la UE debería enfocarse en regulaciones específicas que aborden los problemas reales, como el contenido inapropiado para menores, sin crear herramientas que puedan ser utilizadas para censurar el discurso legítimo.
Meta, por su parte, debe asumir una mayor responsabilidad en la moderación de su IA, asegurando que sus sistemas no generen contenido dañino, especialmente para los menores. Al mismo tiempo, los reguladores deben trabajar con las plataformas y las organizaciones de derechos digitales para desarrollar políticas que equilibren la seguridad infantil con los derechos fundamentales de todos los usuarios. Solo a través de un enfoque transparente y colaborativo se puede evitar que la protección de los niños se convierta en una excusa para la censura.
**Citas**:
[](https://www.politico.eu/article/eu-children-social-media-regulation-platforms-big-tech/)[](https://doras.dcu.ie/25274/1/Nordic%2520Journal%2520of%2520Human%2520Rights%2520Very%2520Final%2520for%2520Publication%2520Submission%2520May_2020.pdf)[](https://reason.com/2023/05/31/childproofing-the-internet/)