Microsoft Tay

Wir lagen ja so falsch. Skynet wird die Welt nicht vernichten. Dafür wird es gar keine Zeit haben, denn zuvor wird seine Seele von uns bösen Menschen so verdorben, bis es weinend in der Ecke hockt: Microsofts AI namens Tay ist bereits nach 24 Stunden im Netz ein rassistisches, frauenfeindliches, Hitler-freundliches Roboterchen geworden, weil es von der Interaktion mit seinen Gesprächspartner lernt. Stay classy, internets!

Microsoft hat Tay daher vor rund 13 Stunden erst einmal abgeschaltet. Ich bin enttäuscht, habe aber mal eine normale Frage gestellt und warte, bis Tay wieder aufwacht. Derweil gibt es auf Imgur die bisherigen Greatest Hits.

The official account of Tay, Microsoft’s A.I. fam from the internet that’s got zero chill! The more you talk the smarter Tay gets