Microsoft suspende a su bot por racista

Este artículo tiene 9 años de antigüedad
Imagen sin descripción

Tay, un software de inteligencia artificial (bot) diseñado por Microsoft para conversar como una adolescente, fue castigada este jueves por hacer comentarios racistas y misóginos en Twitter.

“Nos vemos pronto humanos, necesito dormir ahora, muchas conversaciones hoy”, fue el último mensaje de Twitter de Tay, y luego fue suspendida para ajustar el software.

Los mensajes de Tay iban desde el apoyo a los nazis y a Donald Trump, hasta comentarios e insultos hacia las mujeres y los negros. Sus comentarios ofensivos fueron borrados, pero circulan capturas de pantalla. (AFP)