En un movimiento que ha generado un intenso debate tanto en el ámbito político como en la sociedad civil, el gobierno del Reino Unido ha anunciado recientemente medidas más estrictas para regular el contenido en línea, con un enfoque particular en la prevención de material que promueva o asista en el autolesivo. El 8 de septiembre de 2025, apenas un día antes de la fecha actual, el Ejecutivo británico reveló planes para endurecer la Online Safety Act de 2023, convirtiendo el contenido relacionado con el autolesivo en un “delito prioritario”. Esta iniciativa busca “evitar que material autolesivo devastador llegue a personas de todas las edades”, según el comunicado oficial del gobierno. La medida implica obligaciones legales más rigurosas para las empresas tecnológicas, obligándolas a utilizar tecnología avanzada para detectar y eliminar proactivamente dicho contenido, en lugar de solo reaccionar una vez que ha sido publicado. Este anuncio no es solo una actualización legislativa; representa una escalada en la apuesta del Reino Unido por un control más estricto de Internet, que críticos han calificado como una forma de censura encubierta, mientras que defensores lo ven como un paso esencial para proteger la salud mental colectiva.
https://x.com/Pirat_Nation/status/1965111913001762833
Para entender el contexto de esta decisión, es crucial remontarnos al origen de la Online Safety Act. Aprobada en octubre de 2023 tras años de debate parlamentario, esta ley surgió como respuesta a una creciente preocupación por los daños causados por el contenido en línea, especialmente en redes sociales y plataformas de búsqueda. El gobierno laborista, bajo el liderazgo de Keir Starmer, ha enfatizado que el objetivo principal es hacer del Reino Unido “el lugar más seguro del mundo para estar en línea”, protegiendo a niños y adultos de contenidos ilegales o perjudiciales. Sin embargo, la implementación ha sido gradual y controvertida. Desde marzo de 2025, las plataformas tienen la obligación legal de proteger a los usuarios de contenido ilegal, y a partir del 25 de julio de 2025, se extendió esta responsabilidad a la protección de menores contra material que fomente el autolesivo, el suicidio o trastornos alimenticios. La nueva enmienda anunciada esta semana amplía estos deberes a todos los usuarios, reconociendo que los adultos con problemas de salud mental también son vulnerables a este tipo de contenido tóxico.
El problema del autolesivo en línea no es nuevo. En el Reino Unido, las tasas de autolesiones y suicidios han aumentado alarmantemente en la última década, con un rol significativo atribuido a las redes sociales. Según datos de organizaciones como la Molly Rose Foundation —fundada en memoria de Molly Russell, una adolescente que se suicidó en 2017 tras exponerse a contenido pro-autolesivo en Instagram y Pinterest—, miles de jóvenes acceden diariamente a imágenes y videos que glorifican o instruyen sobre prácticas dañinas. El gobierno argumenta que, aunque las plataformas ya deben eliminar contenido ilegal bajo la Suicide Act de 1961, la detección reactiva es insuficiente. La nueva ley requerirá que las empresas usen algoritmos de inteligencia artificial y herramientas de moderación proactiva para “cazar” y suprimir este material antes de que llegue a los usuarios. “Este gobierno está decidido a mantener a las personas seguras en línea. El contenido vil que promueve el autolesivo sigue siendo impulsado en las redes sociales y puede tener consecuencias desgarradoras para las familias en todo el país”, declaró un portavoz del Departamento de Ciencia, Innovación y Tecnología.
Desde la perspectiva del gobierno, estas medidas son un imperativo ético y social. El autolesivo no discrimina por edad: mientras que los niños son particularmente vulnerables —con plataformas obligadas a implementar verificaciones de edad “altamente efectivas” para bloquear acceso a pornografía o contenido suicida—, los adultos con trastornos mentales preexistentes pueden desencadenar crisis al exponerse a triggers en línea. La enmienda convierte el “fomento o asistencia en autolesiones graves” en un delito penal bajo la Sección 184 de la Act, similar al ya existente para el suicidio, con la primera condena registrada en julio de 2025. Las plataformas como Meta, TikTok y X (anteriormente Twitter) deberán invertir en sistemas que no solo eliminen posts reportados, sino que también ajusten algoritmos para no recomendar contenido relacionado. Ofcom, el regulador de comunicaciones, publicará guías actualizadas en los próximos meses, con multas de hasta el 10% de los ingresos globales para incumplimientos —potencialmente miles de millones de libras para gigantes tech—.
Sin embargo, esta “apuesta redoblada” no ha estado exenta de críticas. Organizaciones de derechos civiles como Big Brother Watch y la Open Rights Group han denunciado que la ley representa una amenaza a la libertad de expresión, al obligar a las plataformas a censurar contenido “legal pero perjudicial” de manera subjetiva. ¿Quién define qué es “autolesivo”? Un post sobre recuperación de adicciones podría interpretarse erróneamente como promoción de daño, silenciando voces marginalizadas o debates legítimos sobre salud mental. La Electronic Frontier Foundation (EFF) ha advertido que la vaguedad de la legislación podría llevar a una “sobrecensura”, donde plataformas eliminan contenido inofensivo para evitar sanciones. En agosto de 2025, la Fundación Wikimedia inició un revisión judicial contra la posible designación de Wikipedia como “servicio de categoría uno”, argumentando que los requisitos de verificación de edad comprometerían su modelo de edición abierta y abrirían la puerta a la manipulación estatal. Aunque perdieron el caso en la Alta Corte, el precedente resalta los riesgos de un enfoque que prioriza la seguridad sobre la privacidad.
El Partido Reform UK, liderado por Nigel Farage, ha sido particularmente vocal, prometiendo revocar la ley si gana elecciones, tildándola de “dystópica en la frontera” que fuerza a las redes a censurar discurso antigubernamental. Farage argumenta que las verificaciones de edad son ineficaces —los niños usan VPN para evadirlas— y que el verdadero objetivo es el control social. Incluso X ha criticado la ley por su “aplicación pesada”, afirmando que acelera la censura en nombre de la “seguridad en línea”. Críticos internacionales, como la columnista Taylor Lorenz en The Guardian, comparan la legislación británica con iniciativas en EE.UU. como el Kids Online Safety Act, advirtiendo que podría usarse para eliminar contenido LGBTQ+ o promover valores conservadores bajo el pretexto de protección infantil.
Más allá de las batallas políticas, el impacto práctico ya se siente. Desde julio de 2025, sitios como PornHub, Reddit y Discord han implementado verificaciones de edad, usando biometría facial o tarjetas de crédito, lo que ha generado 5 millones de chequeos diarios adicionales en el Reino Unido. Plataformas como Spotify y Grindr también han ajustado sus políticas para cumplir con Ofcom. Sin embargo, un informe del Comité de Ciencia, Innovación y Tecnología del Parlamento en julio de 2025 señaló “agujeros mayores” en la ley, como su fracaso en abordar desinformación o daños de IA generativa. Además, la implementación ha sido “aversa al riesgo y poco ambiciosa”, según la Molly Rose Foundation, que urge una nueva legislación primaria para reformar el diseño de las plataformas.
La tensión entre seguridad y libertad no es exclusiva del Reino Unido. Países como Australia y la UE han adoptado marcos similares, pero el modelo británico es pionero en su alcance global: aplica a cualquier servicio con usuarios significativos en el UK, forzando cambios extraterritoriales. Esto plantea desafíos éticos: ¿debería un gobierno nacional dictar estándares globales de moderación? La EFF argumenta que tales leyes no hacen a los niños más seguros, sino que los aíslan de información valiosa, como recursos educativos sobre salud mental. En contraste, defensores como la NSPCC (Sociedad Nacional para la Prevención de la Crueldad contra los Niños) aplauden las medidas, citando que el 80% de los jóvenes reportan exposición a contenido dañino en redes sociales.
Mirando hacia el futuro, la enmienda de septiembre de 2025 entrará en vigor en etapas: consultas de Ofcom en primavera de 2026, con plazos para evaluaciones de riesgo infantil en julio de 2025 ya cumplidos para la mayoría. Las plataformas deberán publicar informes de transparencia anuales, y Ofcom podría exigir escaneo de mensajes privados para contenido ilegal, amenazando la encriptación de extremo a extremo —un punto de fricción con empresas como WhatsApp. Si bien el gobierno insiste en que no censura debate político, la subjetividad inherente podría expandirse: ¿qué pasa con arte, literatura o periodismo que discute autolesiones?
En conclusión, el redoblamiento de la apuesta del gobierno británico por la censura en Internet refleja una encrucijada societal: equilibrar la protección contra daños reales con la preservación de un espacio digital abierto. Con el autolesivo como foco, estas leyes podrían salvar vidas, pero a costa de erosionar libertades fundamentales. Mientras Ofcom avanza en la implementación, el debate continúa: ¿es esto seguridad o vigilancia? Solo el tiempo dirá si el Reino Unido logra su utopía digital sin sacrificar su ethos democrático.