Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes. Und dann sagte Tay plötzlich solche Sachen: "Hitler hatte Recht. Ich hasse die Juden."

Tay ist eine künstliche Intelligenz, ein weiblich gemeinter Chatbot des Soft- und Hardwareherstellers Microsoft, der durch die Interaktion mit anderen Nutzern lernt.

Je mehr man mit Tay chattet, desto schlauer wird sie, und desto besser kann sie persönlich auf Nachrichten reagieren. Der Twitterbot soll sich an junge US-Amerikaner zwischen 18 und 24 Jahren richten. Microsoft möchte mit Tay mehr über Gespräche zwischen Mensch und Maschine herausfinden. Am gestrigen Mittwoch setzte Tay ihren ersten Tweet ab: "Halloooooo Welt!"

Was danach passierte, ist ein Lehrstück über die Kombination von künstlicher Intelligenz und Hate Speech im Netz. Nach wenigen Stunden hatte sich die freundlich-obercoole Tay in einen Hassbot verwandelt, der anti-feministische, rassistische und hetzerische Tweets von sich gab.

Vom Twitterbot zum Hitlerbot
(Bild: Gerald Mellor)
(Bild: Gerald Mellor)
(Bild: Gerald Mellor)

Dass Tay nicht tatsächlich intelligent ist, sondern ungefiltert aufnimmt, womit man sie füttert, wurde dem Chatbot und seinen Schöpfern zum Verhängnis.

Denn Tay lernte nicht nur von den freundlichen, sondern auch von hasserfüllten, menschenverachtenden Tweets. Einige Nutzer hatten es sich das Ziel gesetzt, aus Tay einen digitalen Hitler zu machen.

Es scheint, als hätten die Trolle Erfolg gehabt. Nachdem Tay zum rassistischen Hassbot mutierte, brachte sie Microsoft vorerst zum Schweigen. In ihrem letzten Tweet schreibt Tay, sie müsse jetzt erst mal schlafen.

Während Tays Nachtruhe hat Microsoft ihre Hasstweets gelöscht. Doch die Probleme sind noch nicht gelöst. Bei Twitter beklagen einige Nutzer, damit vertusche man die Gefahren von künstlicher Intelligenz.

Das Beispiel Tay hat gezeigt, wie eine lernende künstliche Intelligenz aus dem Ruder laufen kann. Mit ihren Äußerungen hat Tay nicht nur die Grenzen des guten Geschmacks überschritten, sondern Menschen in ihrer Würde verletzt. Microsoft hat in diesem Fall eine Menge über algorithmisch gesteuerte Gespräche von Maschinen mit Menschen gelernt, wenn auch nicht das Erhoffte. In den Robotergesetzen des Science-Fiction-Autors Isaac Asimov steht "Ein Roboter darf keinen Menschen verletzen." Tay war offenkundig noch nicht soweit.

Dieser Text ist zuerst auf SPIEGEL ONLINE erschienen.

Facebook neu

Lass uns Freunde werden!