La consejera delegada, Melanie Dowes, dijo a la BBC que, en base a este borrador, que se somete a consulta pública hasta el 17 de julio, las empresas de tecnología tendrán que imponer "controles de edad sólidos y adecuados" y "cambiar los algoritmos que crean los contenidos perjudiciales para los niños y adolescentes".
Dowes explicó a la cadena pública que, por primera vez, estas compañías serán responsables legalmente de hacer análisis de riesgo de sus servicios, siguiendo las directrices difundidas este miércoles, que finalizarán en 2025, y en aplicación de la ley de Seguridad en Línea aprobada en 2023.
"Se les pedirá que nos los proporcionen y los examinaremos y nos aseguraremos de que sean adecuados, y luego deberán tomar medidas para resolver esos riesgos que detectaron", declaró.
La directiva recordó que, de acuerdo con la nueva legislación, las compañías que incumplan estas normas serán denunciadas públicamente y se podría prohibir el uso de sus plataformas a los menores de 18 años.
Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy
Según los documentos publicados en la página web de Ofcom, además de estrictos controles de edad y algoritmos más seguros, se pedirá a las firmas tecnológicas sistemas de moderación interna efectivos para atajar el contenido negativo, que incluye también la incitación a trastornos alimenticios, violencia o abusos.
El regulador señala que lanzará una consulta adicional a finales de año sobre cómo se pueden utilizar herramientas automatizadas, incluida la inteligencia artificial, para detectar de forma proactiva contenido ilegal y dañino para los menores.
