Gossip

Taylor Swift demanda a Microsoft por Tay, un chatbot racista

Por Daphne Fuentes
septiembre 11, 2019

Taylor Swift ha reclamado la propiedad muchas veces. En 2015, solicitó marcas registradas para letras de canciones como “this sick beat” y “Nice to meet you. Where you been?”. Unos meses más tarde, ella fue más allá, marcando el año de su nacimiento “1989”. Ahora sabemos que no terminó allí. Un nuevo libro reveló que, un año después, Swift reclamó la propiedad del nombre Tay y amenazó con demandar a Microsoft por infringirlo.

En la primavera de 2016, Microsoft anunció planes para llevar a los Estados Unidos un chatbot desarrollado para el mercado chino. El chatbot, XiaoIce, fue diseñado para mantener conversaciones en las redes sociales con adolescentes y adultos jóvenes. Los usuarios desarrollaron una afinidad genuina por él, hasta tal punto que pasaban un cuarto de hora al día descargando sus esperanzas y miedos en este amigable oído que no sin prejuicios.

La versión estadounidense del chatbot se llamaría Tay. Y eso, según el presidente de Microsoft, Brad Smith, es lo que están demandando los representantes legales de Swift. "Estaba de vacaciones cuando cometí el error de mirar mi teléfono durante la cena", escribió Smith. Llegó un correo de un abogado de Beverly Hills diciendo que quería hablar con él sobre el nombre Tay.

"Continuó diciendo que el nombre Tay, está estrechamente relacionado con nuestro cliente. No, en realidad no lo sabía, pero el correo electrónico me llamó la atención. "El abogado argumentó que el uso del nombre Tay creó una asociación falsa y engañosa entre la cantante popular y nuestro chatbot, y que violaba las leyes federales y estatales", agrega Smith. Resultó que Swift tenía razón para preocuparse. No porque el chatbot de Tay se hizo tan popular como XiaoIce, sino por lo que sucedió después: el chatbot se encendió y se conectó a Twitter, donde rápidamente se convirtió en un personaje racista.

Evidentemente, Swift no estaba nada contenta con el nombre del chatboy llamado Tay, destinado en interactuar en línea con jóvenes de 18 a 24 años, TayTweets está controlado por inteligencia artificial y fue diseñado para aprender de las conversaciones en las redes sociales. , los usuarios de Twitter lo convirtieron en un chatbot racista en menos de un día. Poco después del lanzamiento de Tay, tuiteó que apoyaba el genocidio y no creía que el holocausto ocurriera, entre otras cosas. Microsoft emitió una disculpa y desconectó a Tay después de menos de 18 horas de conversaciones ofensivas en Twitter.

Daphne Fuentes

Socióloga de-formación. Feminista por decisión.

@DaphOddil