ONG reclama cambios en empresas de IA en redes por comunidad LGTB en O.Medio

Este artículo tiene 2 años de antigüedad
/pf/resources/images/abc-placeholder.png?d=2394

El Cairo, 21 feb (EFE).- Las empresas tecnológicas que dependen de la Inteligencia Artificial (AI) para moderar el contenido en las redes sociales en Oriente Medio y Norte de África están permitiendo discursos que deberían ser censurados y que afectan directamente a la perseguida comunidad LGTB, denunciaron hoy dos ONG.

Mohamed Najem, director ejecutivo de SMEX, organización dedicada a los derechos digitales en la región, aseguró en una rueda de prensa virtual tras la publicación de un informe sobre la persecución en línea a las personas LGTB que "la mayoría de los contenidos que dependen de la Inteligencia Artificial censuran cosas que no deberían ser censuradas, y también permiten otros discursos que deberían censurarse y que incluyen amenazas".

El responsable de esta ONG con sede en el Líbano se refirió expresamente a cómo las personas LGTB en Oriente Medio y Norte de África que denuncian posts en redes sociales, como Facebook o Instagram, ven que dichas publicaciones continúan sin ser eliminadas, pese a vulnerarse varios derechos.

La solución al problema pasaría por contratar más moderadores de contenido humanos que conozcan el idioma, sobre todo los dialectos de árabe, y la cultura local para detectar la violación que se está reportando, de acuerdo a las recomendaciones de SMEX.

Esto se debe a que una máquina no es capaz de detectar la traducción de una palabra que pertenece a un dialecto que podría “sacar del armario” forzosamente en línea a personas LGTB, lo que supondría graves consecuencias, entre ellas riesgo de prisión y acoso en todos los países de la región.

Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy

“Este es el gran problema que las empresas tecnológicas tienen que arreglar", apuntó Najem, que indicó que están en conversaciones con empresas como YouTube para abordar este asunto.

En el informe publicado hoy, HRW documentó 26 casos de acoso en línea, incluido "doxxing" (publicación de información personal identificable sobre una persona sin su consentimiento) y "outing" (exposición de la identidad sexual de personas LGBT sin su consentimiento) en plataformas públicas de redes sociales en Jordania, el Líbano y Túnez.

Como consecuencia del acoso en línea, las personas LGBT denunciaron haber perdido sus empleos, sufrido violencia familiar, incluidos malos tratos físicos, amenazas de muerte y prácticas de conversión, borrar sus cuentas en las redes sociales, huir del país y sufrir graves consecuencias para su salud mental, indicó la investigadora senior sobre derechos LGBT para HRW, Rasha Younes.

En la rueda de prensa, la responsable aseveró que la publicación de este informe es un "pasó más" para que las compañías tecnológicas sean también responsables de las consecuencias que arrastran las personas LGTB.

“El siguiente paso es crear una campaña específica dirigida directamente a las compañías tecnológicas. Para poder hacerlo, tienen que ser transparentes”, dijo Younes, que subrayó que aún están esperando los datos de cuántos moderadores de contenido hay para la región.

Por ello, la investigadora instó a que todas las compañías muestren “total transparencia en lo que se refiere a la moderación de contenidos originados en la región de Oriente Medio y Norte de África en todos los dialectos de la lengua árabe”.

Si se consiguiera eso, los moderadores de contenido humanos podrían “rendir cuentas” y las tecnológicas podrían eliminar el contenido que lograría “salvar vidas”.