Microsoft startet Twitter-Bot mit künstlicher Intelligenz, der auf der Stelle lernt, rassistisch zu sein
“Hellooooooo world!!!” schrieb Microsofts neuer Bot mit künstliche Intelligenz in seinem ersten Tweet gestern morgen. Am Ende des Tages war die K.I davon überzeugt, dass Hitler nichts falsch gemacht hatte. Nun, das ist schnell eskaliert.
Tay ist gestern gestartet und ist ein Bot mit künstlicher Intelligenz, der Jugendlichen und jungen Erwachsenen gefallen soll. Tay soll von Konversationen und Schlüsselwörtern auf Twitter lernen und darauf reagieren, was Leute sagen.
Natürlich ist das hier das Internet und in den Stunden nach dem Start von Tay waren die Tweets des Bots innerhalb kürzester Zeit voller Rassismus, Sexismus, Kommentare gegen Feminismus, Donald Trump-Zitaten und was man sich sonst noch vorstellen kann.
Das Microsoft-Team hinter der K.I. hatte sicherlich gute Absichten. Aber jeder mit etwas Verständnis für das Internet hätte bemerken müssen, dass es vielleicht keine gute Idee sein könnte, eine solche K.I. auf Twitter loszulassen. Ganz besonders, wenn Tay wiederholt, was andere auf Twitter sagen. Twitter, ein Netzwerk bekannt für Mobbing und anderes unangemessenes Verhalten.
Microsoft hat viele der sehr rassistischen Tweets gelöscht, einige blieben jedoch lange online. Darunter Tweets, dass Tay “Nigger” hasse und auch, dass die Juden am 11. September Schuld seien und vergast werden sollten.
Microsoft möchte dieses Experiment eventuell noch mal überdenken.
Ich bin seit 2004 Chefredakteur und Leiter von GamePire. Als Evil Genius hinter den Kulissen und Gaming/Tech-Nerd gehört FIFA für mich nach 15 Jahren in der Gaming-Industrie immer noch genauso jedes Jahr zu den Highlights wie krachende Action- und Horror-Games oder super-schnelle Racing-Titel. Über innovative Hardware freue ich mich immer sehr und bin zudem ausgesprochener Fan der VR-Technologie. Auf Social Networks bin ich zuhause! See you there!
Leute von 4Chan haben einer neuen, lernenden KI beigebracht, rassistisch zu sein, indem man den Bot damit zugemüllt hat. Mach das mit einem Kind und du erhältst genau das selbe Ergebnis – viel mehr hat das Experiment nicht hergegeben.
Schuld hat hier weniger Microsoft, als die Vollidioten, die die KI so “erzogen” haben. Die Überschrift sollte besser heißen “Microsoft startet Twitter-Bot mit künstlicher Intelligenz, dem auf der Stelle beigebracht wird, rassistisch zu sein”
“Aber jeder mit etwas Verständnis für das Internet hätte bemerken müssen,
dass es vielleicht keine gute Idee sein könnte, eine solche K.I. auf
Twitter loszulassen. Ganz besonders, wenn Tay wiederholt, was andere auf
Twitter sagen.” – das heißt also im Umkehrschluss, dass wir den Einsatz von KIs im Internet also nie wagen durfen, weil es Idioten im Netz gibt?
Natürlich sollten wie den Einsatz von K.I. wagen und zwar ohne Grenzen, Filter und Schutzmaßnahmen. Sonst dauert es noch ewig bis wir Skynet bekommen 😉
http://pre05.deviantart.net/af30/th/pre/f/2012/263/9/9/obey_propaganda_skynet_by_k4rlswede-d5fein4.png
Haha Skyynet! 😀