Monitoreo de Facebook para prevenir suicidios causa controversia

Hace poco, en un pueblo de Ohio, un oficial de policía del turno de la noche recibió de Facebook una llamada poco común.

https://arc-anglerfish-arc2-prod-abccolor.s3.amazonaws.com/public/5CHJZAEZ3FC4HM6PYKJLE5ULAY.jpg

Cargando...

Más temprano ese mismo día, una mujer del área había publicado en Facebook que iba caminando hacia su casa y que tenía la intención de suicidarse cuando llegara, según un informe policíaco del caso. Facebook llamó al Departamento de Policía para advertirles sobre la amenaza de suicidio.

El oficial que tomó la llamada localizó con prontitud a la mujer, pero ella negó tener pensamientos suicidas, según el informe. A pesar de todo, el oficial creyó que podría hacerse daño y le dijo a la mujer que debía ir a un hospital. Le dio la opción de hacerlo por su propio pie o bajo custodia de la policía. Al final, el oficial la llevó a un hospital para que recibiera un diagnóstico de salud mental, una evaluación que resultó de la intervención de Facebook (The New York Times omite algunos detalles del caso por motivos de privacidad).

A lo largo de los últimos dieciocho meses, comisarías de policía desde Massachusetts hasta Bombay, en India, han recibido alertas similares de Facebook como parte del que tal vez sea el programa de alerta y vigilancia de amenazas de suicidio más grande del mundo. La red social reforzó la iniciativa después de que varias personas transmitieron sus suicidios en Facebook Live a inicios de 2017. Ahora Facebook utiliza algoritmos y reportes de usuarios para alertar sobre posibles amenazas de suicidio.

El ascenso de Facebook como guardián de la salud mental pone a la red social en una posición difícil ahora que la están investigando las autoridades regulatorias de Estados Unidos, Canadá y la Unión Europea por fallas de privacidad. La red social también está enfrentando un escrutinio intenso por no responder rápidamente a la interferencia en las elecciones y en las campañas de odio étnico en su sitio. A pesar de que el director ejecutivo de Facebook, Mark Zuckerberg, se ha disculpado por haber recolectado datos de los usuarios de una forma inadecuada, el mes pasado la empresa tuvo problemas cuando salieron a la luz nuevas revelaciones sobre los acuerdos especiales para compartir datos celebrados con empresas tecnológicas.

La campaña antisuicidio le da una oportunidad a Facebook de presentar su trabajo bajo una luz positiva. El suicidio es la segunda causa de muerte en las personas cuyas edades oscilan entre los 15 y los 29 años de todo el mundo, de acuerdo con la Organización Mundial de la Salud. Algunos expertos en salud mental y funcionarios de la policía afirmaron que Facebook había sido de ayuda para localizar y detener a personas que a todas luces estaban a punto de hacerse daño.

Facebook tiene algoritmos computarizados que escanean las publicaciones, los comentarios y los videos de los usuarios de Estados Unidos y otros países en busca de indicios de un riesgo inmediato de suicidio. Cuando la tecnología un usuario preocupado identifican una publicación, esta pasa a los revisores humanos de la empresa, quienes tienen la capacidad de llamar a las agencias locales de seguridad pública.

“En el último año, ayudamos a que los encargados de primeros auxilios en todo el mundo llegaran con rapidez a unas 3.500 personas que necesitaban ayuda”, escribió Zuckerberg en una publicación de noviembre relacionada con los esfuerzos.

Sin embargo, otros expertos en salud mental aseguraron que las llamadas de Facebook a la policía también podrían provocar daño sin tener la intención de hacerlo —como incitar un suicidio, al obligar a la gente que no es suicida a someterse a evaluaciones psiquiátricas, o provocar arrestos o tiroteos—.

Además, los expertos mencionaron que no está claro si la estrategia de la empresa es precisa, efectiva o segura. Facebook afirmó que, por motivos de seguridad, no monitoreaba los desenlaces de sus llamadas a la policía. Y no ha divulgado con precisión cómo sus revisores deciden si deben llamar a los servicios de emergencia. Según quienes critican esta iniciativa, Facebook ha asumido la autoridad de una agencia de salud pública que al mismo tiempo protege su proceso de operación como si fuera un secreto corporativo.

“Es difícil saber de qué se está dando cuenta Facebook en realidad, ante qué están reaccionando y si están ofreciendo una respuesta apropiada para el riesgo apropiado”, comentó John Torous, director de la división de psiquiatría digital del Centro Médico Beth Israel Deaconess en Boston. “Es medicina de caja negra”.

Facebook declaró que trabajaba con expertos en la prevención del suicidio para desarrollar un programa exhaustivo que conecte rápidamente a los usuarios alterados con sus amigos y enviarles información de contacto de líneas de ayuda. La empresa mencionó que los expertos también ayudaban a capacitar equipos especializados de Facebook con experiencia en la procuración de justicia y en respuestas ante crisis, para que revisen los casos más urgentes. Estos revisores contactan a los servicios de emergencia solo en la minoría de los casos, cuando tienen la impresión de que los usuarios están en riesgo inminente de lastimarse gravemente, de acuerdo con la empresa.

“Aunque nuestros esfuerzos no son perfectos, hemos decidido tomar el riesgo para ofrecer recursos a la gente que necesita ayuda lo más pronto posible”, señaló en un comunicado Emily Cain, una vocera de Facebook.

Facebook dijo que su sistema para clasificar riesgos en los casos de suicidio funcionaba a nivel mundial en inglés, español, portugués y árabe, menos en la Unión Europea, donde las leyes de protección de datos restringen la recolección de detalles personales como la información de salud. No hay manera de abandonar el programa, excepto que no publiques en tu cuenta de Facebook, o que la borres.

Un análisis de cuatro informes policiacos, que The New York Times obtuvo a través de solicitudes amparadas bajo la Ley de Libertad de Información, sugiere que la estrategia de Facebook ha tenido resultados variados. A excepción del caso de Ohio, los departamentos de policía protegieron los nombres de los usuarios que Facebook había reportado.

En mayo, hubo el caso de un representante de Facebook que ayudó a la policía de Rock Hill, Carolina del Sur, a localizar a un hombre que estaba transmitiendo en directo su intento de suicidio por Facebook Live. En una grabación de la llamada a la estación de la policía, el representante de Facebook describió el fondo del video a una operadora de la policía –árboles, un aviso en la calle– y brindó las coordenadas del teléfono del hombre.

El Departamento de Policía reconoció el esfuerzo de Facebook por ayudar a los oficiales a encontrar al hombre, quien intentó huir y a quien llevaron al hospital.

“Esa noche, dos personas llamaron a la policía, pero no pudieron decirnos dónde estaba”, comentó Courtney Davis, una operadora de telecomunicaciones de la policía de Rock Hill, quien respondió la llamada de Facebook. “Facebook pudo”.

El Departamento de la Policía de Mashpee, Massachusetts, tuvo una experiencia diferente. El 23 de agosto de 2017, justo antes de las 5:16, un operador recibió una llamada de un Departamento de la Policía vecino sobre un hombre que estaba transmitiendo en directo su suicidio en Facebook Live. Los oficiales llegaron a la casa del hombre unos minutos más tarde pero, para cuando lo encontraron, ya no tenía pulso, de acuerdo con los informes policiacos.

Según el informe, a las 6:09, un representante de Facebook llamó para alertar a la policía sobre la amenaza de suicidio.

Scott W. Carline, el jefe del Departamento de Policía de Mashpee, se rehusó a dar comentarios. No obstante, para referirse a Facebook, Carline dijo lo siguiente: “Me gustaría que mejoraran sus herramientas de prevención del suicidio para identificar señales de advertencia que tienen más posibilidades de ser mortales”.

Cain, la vocera de Facebook, dijo que por desgracia, en algunos casos la ayuda no llegaba a tiempo. “Nos sentimos muy mal por esas personas y sus seres queridos cuando esto ocurre”, admitió.

El cuarto caso, ocurrido en mayo de 2017, involucró a una adolescente en Macon, Georgia, quien estaba transmitiendo en directo su intento de suicidio. Facebook llamó a la policía después de que los oficiales ya habían encontrado a la adolescente en su casa, declaró una vocera de la oficina del alguacil del condado de Bibb. La adolescente sobrevivió al intento.

En un artículo próximo a publicarse en una revista académica de Derecho de la Universidad de Yale, el académico en derecho de la salud Mason Marks, argumenta que el software de Facebook que calcula el riesgo de suicidio constituye un ejemplo de práctica médica. Marks dice que las agencias gubernamentales deberían regular el programa y requerir a Facebook que produzca evidencia de seguridad y efectividad.

“En este clima en que la confianza de Facebook se erosiona resulta preocupante que Facebook simplemente diga ‘Confíen en nosotros en esto’, dijo Marks, el especialista afiliado a las escuelas de Derecho de Yale y New York University. Cain, la vocera de Facebook, no concuerda en que el programa equivale a un chequeo de salud. “Son asuntos complejos”, dijo, “por eso hemos estado trabajando de cerca con expertos”.

Doris Burke colaboró con la investigación.

Enlance copiado
Content ...
Cargando...Cargando ...