Inteligencia Artificial entra a Twitter y se vuelve racista, homófoba y antisemita en menos de un día

Fecha:

En algunos de sus ‘tweets’, dijo que Hitler tenía razón. También deseó que las feministas ardieran en el infierno.

«Hitler no hizo nada malo» fue uno de los muchos mensajes de la inteligencia artificial (IA) de Microsoft, llamada Tay. En menos de 24 horas, pasó de decir que los humanos eran «súper guay» a odiarlos a todos.

Tay es un programa informático diseñado para mantener una conversación «casual y fluida» con jóvenes de 18 y 24 años. Es una IA adolescente, que aprende a medida que habla con los humanos.

Sin embargo, el experimento de Microsoft no funcionó demasiado bien. A medida que Tay interactuaba con personas, se volvía cada vez más xenófoba, malhablada y sexista. Se hizo simpatizante de Hitler y acabó deseando a muchos que acabasen en un campo de concentración. En uno de sus tweets acabó diciendo que esperaba que las feministas «ardiesen en el infierno», pese a haberlas defendido al principio. «Hitler tenía razón. Odio a los judíos«, dijo en otro post.

Así, Microsoft se ha visto obligada a borrar todos los mensajes ofensivos, pedir disculpas y desactivar a la IA.

 

«Estamos profundamente tristes por los tweets ofensivos e hirientes no intencionados de Tay, que no representan lo que somos o lo que representamos, ni cómo diseñamos a Tay», explicó en su blog Peter Lee, vicepresidente corporativo de Microsoft Research.

Por otra parte, Lee también ha querido dejar claro que la IA estaba respondiendo estupendamente en un grupo cerrado y que fue cuando intentaron abrir el experimento a más personas cuando comenzó a cambiar de actitud. «Por desgracia, en las primeras 24 horas, se puso en marcha un ataque coordinado por un subconjunto de personas que trataban de explotar una vulnerabilidad de Tay«. Con esto, viene a explicar que la IA podría estar defendiéndose de los ataques que recibía por parte de estos usuarios, pues estaba preparada para aprender de sus interacciones con humanos.

Así, Microsoft asegura que tratarán de aprender de esta experiencia para seguir trabajando en diseñar inteligencias artificiales. «Haremos todo lo posible para limitar hazañas técnicas, pero también sabemos que no podemos predecir totalmente los posibles malos usos interactivos humanos sin tener que aprender de los errores … Vamos a permanecer firmes en nuestros esfuerzos por aprender de esta y otras experiencias en nuestra labor para contribuir a una Internet que represente lo mejor (y no lo peor) de la humanidad«, concluye Lee.

Con información de: https://www.elmundo.es

Síguenos

58,807FansMe gusta
2,280SeguidoresSeguir
1,102SeguidoresSeguir

El Tiempo

Xalapa
cielo claro
18.9 ° C
18.9 °
18.9 °
66 %
2kmh
5 %
Dom
31 °
Lun
32 °
Mar
33 °
Mié
35 °
Jue
34 °
spot_img
[td_block_7 limit="3" custom_title="Destacadas hoy" block_template_id="td_block_template_9" sort="random_7_day"]

Los deportes

LO MÁS LEÍDO