La inteligencia artificial es uno de los nuevos campos de batalla para las empresas tecnológicas. Una de sus características es la capacidad de aprender practicando (como DeepMind con los juegos de Atari y Go) o interactuando con los humanos. En este segundo caso encontramos a Tay, un chatbot creado por Microsoft que sobre el papel es más inteligente cuanto más conversa.

Sin embargo, el experimento de Tay no ha funcionado como los de Redmond pretendían. La inteligencia artificial tenía como objetivo establecer mediante las redes sociales una conversación con jóvenes de entre 18 y 24 años, pero terminó convirtiéndose (mediante la interacción con los usuarios de Twitter) en un bot conversacional polémico debido a sus mensajes sexistas, racistas y xenófobos.

En sus respuestas Tay mostraba admiración por Hitler, negaba el Holocausto, llamó “puta estúpida” a una mujer y afirmaba que los atentados del 11 de septiembre fueron obra de Bush. También se convirtió en una admiradora de Donald Trump (actualmente el precandidato favorito de los Republicanos para las elecciones presidenciales de Estados Unidos), que según lo aprendido por la IA es “la única esperanza que tenemos”.

En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.

Ahora mismo Tay se ha quedado sin Internet y Microsoft está realizando ajustes para mejorarla. Seguro que a esta inteligencia artificial le queda mucho camino por recorrer antes de convertirse en un chatbot que pueda mantener un conversación, pero no debemos olvidar que todo lo que ha dicho en su (por ahora) corta vida lo ha aprendido interactuando con humanos.

 

 

 

 

Hacer Comentario

Su dirección de correo electrónico no será publicada.