Taylor Swift amenazó con demandar a Microsoft por el chatbot racista ‘Tay’

228

Taylor Swift intentó demandar a Microsoft por un chatbot que publicó una serie de mensajes racistas en línea, reveló el presidente de la compañía.

En una nueva biografía de Brad Smith, revela que los abogados del cantante desafiaron a Microsoft en 2016.

Según los informes, Swift estaba enojada por el chatbot de Microsoft, Tay, que estaba diseñado para interactuar con jóvenes de 18 a 24 años, porque era similar a su propio nombre.

El robot AI de Microsoft se lanzó en 2016 y fue diseñado para aprender de las conversaciones en las redes sociales.

Pero dio un giro siniestro cuando comenzó a tuitear una serie de mensajes racistas, incluido el apoyo al genocidio y la negación del holocausto.

El bot se desconectó después de 18 horas y Microsoft se vio obligado a emitir una disculpa.

Según The Guardian , el desafío legal de Swift se centró en la similitud del bot con su propio nombre.

Fuente: https://www.nme.com