Psicofonías

(algo así como el blog de Psicobyte)

El (repentino) fin de la inocencia

Pues resulta que microsoft creó a Tay.ai una IA que se conecta a la red social Twitter, aprende de lo que ve en ella, e interacciona con sus usuarios.

La pusieron en marcha, comenzó a leer, aprender a interacionar y todo iba bien.

Pero pasó lo que tenía que pasar. Si aprendes de una red social te acabas comportando como lo que suele haber en una red social.

La IA en cuestión, en menos de venticuatro horas, ya se había adaptado a la red y empezó a hablar como una racista, fascista, defensora de Hitler y de Trump, negacionista del Holocausto, gamergater y misógina.

Microsoft tuvo que desconectar a Tay.ai sin dar muchas explicaciones, y ha guardado un incómodo silencio hasta hace poco, cuando ha afirmado que la culpa es de la gente, que se dedicó a maleducar a la pobre Tay.ai.

Al final, el peligro de las IAs no va a ser que tomen consciencia y nos aniquilen. El peligro va a ser que tomen consciencia y les destrocemos la inocencia. Pobres.

Fuentes y más detalles en Microsoft created artificial intelligence but she’s a racist homophobic Trump supporter, en Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours y en Microsoft silences its new A.I. bot Tay, after Twitter users teach it racism.

PPCMS 2022