Luego de los mensajes racistas y sexistas publicados en Twitter por un robot que Microsoft lanzó esta semana, la compañía tuvo que pedir disculpas a los usuarios.
“Lamentamos profundamente los tuits ofensivos e hirientes no intencionados publicados a través de Tay, los cuales no representan quiénes somos ni lo que buscábamos cuando diseñamos a Tay”, asevero la empresa tecnológica.
El chatbot, conocido como Tay, fue creado para ser más inteligente a medida que los usuarios interactuan con él,sin embargo, de manera rápida aprendió a repetir comentarios antisemitas e ideas que incitan al odio.
Por lo anterior, Microsoft tuvo que desactivar el uso del chatbot el pasado jueves y adelntó que Tay se volverá a activar cuando sus ingenieros encuentren una manera de evitar que los usuarios influyan en elrobot a través de mensajes que falten a los principos y valores.
Asimismo, el vicepresidente de Microsoft Research, Peter Lee, aseveró que la compañía creó a Tay como un experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios en una conversación cualquiera.
“La idea de este proyecto era interactuar con los jóvenes y aprender de ellos”, destacó el vicepresidente.
En su corta vida por Twitter, Tay comenzó a lanzar varios tuits ofensivos desde el pasado miércoles; poco tiempo después, sus publicaciones tomaron un giro negativo, el cual derivó en ofensas hacia los usuarios de esta red social.