Por tuits ofensivos, Microsoft “castiga” a robot adolescente

Microsoft informó el jueves que retiró de internet un software de inteligencia artificial diseñado para tuitear como si se tratara de una chica adolescente después de que comenzó a publicar comentarios ofensivos.

La empresa dijo que está realizando ajustes al chatbot después de que algunos usuarios descubrieron una forma de manipularlo para que tuiteara textos racistas o sexistas y a hacer referencias a Hitler.

El chatbot debutó el miércoles y está diseñado para aprender a comunicarse a través de conversaciones con seres humanos.

Está dirigido a los jóvenes estadounidenses, de entre 18 y 24 años de edad. Los usuarios interactúan con él utilizando la cuenta de Twitter @tayandyou.

En un comunicado, Microsoft dijo que dentro de 24 horas, "nos dimos cuenta de un intento coordinado por parte de algunos usuarios para abusar de las capacidades de comentarios de Tay, para hacer que Tay respondiera de manera inapropiada".

La mayoría de los mensajes fueron eliminados.

“Tay está diseñado para atraer y entretener a la gente donde se conectan entre sí en línea a través de una conversación informal y lúdica. Cuanto más chateas con Tay más inteligente se vuelve, por lo que la experiencia puede ser más personalizada para ti”, reza la descripción del servicio.

Cuando Buzzfeed le preguntó a la empresa por qué no filtró palabras como la que empieza por “N” y "holocausto", un portavoz de Microsoft no proporcionó de inmediato una explicación.

Contáctanos