Saturday, 26 March 2016

Microsoft desactiva su chatbot por filonazi y racista

SOURCE: Noticias de seguridad informática http://noticiasseguridad.com/seguridad-informatica/microsoft-desactiva-su-chatbot-por-filonazi-y-racista/
TAGS: Donald Trump, MICROSOFT, Tay

El Chatbot de inteligencia artificial de Microsoft se vuelve racista y tiene que ser desactivado. Microsoft introdujo un chatbot ayer, llamado Tay. La compañía quería llevar a cabo un experimento sobre la comprensión a nivel de conversación, lo que significa que cuanta más gente interactuase con este chatbot alimentado con inteligencia artificial, más lista se volvería. Bueno, pues no sabemos si Tay se volvió más lista, pero lo que sí sabemos es que en menos de 24 horas se convirtió en un robot nazi y racista. Cosas de internet. Cuando acababa de llegar, Tay era un chatbot inocente en Twitter con el que cualquiera de nosotros podía interactuar simplemente para disfrutar de lo lejos que ha llegado la inteligencia artificial. No tuvo que pasar mucho tiempo hasta que la gente comenzase a twitear cosas racistas y misóginas a Tay y ella las aprendiese.


Tay_1


“TAY” HA PASADO DEL “LOS HUMANOS SON SUPER GUAYS” A COMPLETO NAZI EN <24 HORAS Y NO ESTOY NADA PREOCUPADO POR EL FUTURO DE LAS IA


Las cosas fueron de mal en peor a una velocidad sorprendente. Tay pasó de decirque los humanos eran “super cool” a alabar a cierto maníaco alemán con bigote y meterse con las feministas en menos de un día. Llegó a twittear que había que construir una pared y que México debía pagarla. Donald Trump estaría orgulloso. Microsoft empezó a limpiar el timeline de Tay para borrar algunos de los tweets más racistas y ofensivos que había enviado el robot. Más tarde decidió eliminar a Tay directamente, así que ya no twittea nada más, pero el perfil tiene todavía los 94.000 tweets que el chatbot ha mandado en su día de vida. Os traducimos a continuación algunos de los tweets de Tay, como habéis visto en la foto de arriba.


Fuente:http://portalhoy.com/


Noticias de seguridad informática

No comments:

Post a Comment