El secretario de Estado para la Tecnología del Reino Unido, Peter Kyle,ha pedido disculpas públicamente a una generación de niños británicos que han crecido exponiéndose involuntariamente a una gran cantidad de contenidos tóxicos y nocivos en internet. La problemática del contenido tóxico y nocivo para niños en línea es considerada una “epidemia” por el Gobierno, con consecuencias graves en la salud mental y emocional de los menores y sus familias.
Con estas medidas, el Reino Unido se posiciona como uno de los países con la regulación más avanzada y estricta a nivel mundial en materia de protección infantil en línea.
Según sus palabras, muchos niños, especialmente los mayores de 13 años,han sufrido imágenes y mensajes dañinos como misoginia extrema, suicidio, autolesiones y contenido pornográfico sin haberlos buscado, simplemente porque los algoritmos de las plataformas digitales se los han mostrado sin control ni filtro efectivo.
Kyle subraya que el Gobierno británico está dando pasos firmes para cambiar esta realidad con la puesta en marcha de códigos de conducta y regulaciones al amparo de la recién aprobada Ley de Seguridad en Línea (Online Safety Act). Estas regulaciones obligan a las plataformas digitales a implementar mecanismos de verificación de edad (como estimación facial o verificación con tarjeta de crédito) para que los menores no accedan a contenido inadmisible. Además, se les exige modificar sus algoritmos para que no fomenten la exposición de niños a contenido dañino ni promuevan conductas perjudiciales.
En caso de incumplimiento, las plataformas podrían enfrentarse a multas de hasta 18 millones de libras esterlinas o el 10% de sus ingresos globales, además de posibles bloqueos de acceso en Reino Unido.
Esta aplicación la supervisa el regulador Ofcom, que ya ha comenzado a actuar contra servicios y aplicaciones que no cumplen con la nueva normativa.
Kyle también ha destacado que estos cambios están diseñados para que los niños que hoy tienen alrededor de 13 años, y los que sean aún menores, puedan disfrutar el resto de su infancia en un entorno digital más seguro y saludable. Sin embargo, organizaciones de defensa de los menores y víctimas como la Molly Rose Foundation alertan de la falta de ambición y responsabilidad de algunas medidas y piden un control más estricto y transparente a las grandes tecnológicas.
Desde ahora, las plataformas deben asegurarse de que sus algoritmos no empujen contenido relacionado con autolesiones, suicidio, trastornos alimenticios u otro material inapropiado hacia menores de edad.
Defensores y grupos de derechos digitales llaman a mantener presión para que estas regulaciones se apliquen con rigor y que se avancen en “seguridad por diseño” en las plataformas digitales, especialmente para proteger a grupos vulnerables como niñas y adolescentes.