Zum Inhalt springen

Header

Inhalt

Netzwelt Chat-Roboter sollte Liebe austeilen, wurde aber zur Hass-Maschine

Microsoft schuf eine künstliche Intelligenz, die so intelligent dann doch nicht war: Der Chat-Roboter «Tay» sollte im Netz lernen, wie junge Menschen kommunizieren. Doch er hatte eine Schwachstelle: Er wiederholte ungefiltert Hass-Kommentare. Nach 24 Stunden musste das Experiment abgebrochen werden.

Um was geht's?

Microsoft hat einen Chat-Roboter auf die Netzgemeinde losgelassen, mit ein paar Floskeln wie «Hallo, wie geht's?» oder «Schickt mir ein Foto». Im Austausch mit Twitter-Usern sollte dieser dazulernen, wiederholen, kombinieren.

Statt «smart» – wie Microsoft ihn geplant hatte –, wurde er innerhalb weniger Stunden zu einer Hass-Maschine. User fanden heraus, dass sie den Roboter dazu bringen konnten, Aussagen zu wiederholen.

Screenshot

Box aufklappen Box zuklappen

Wir sprechen über aktuelle Geschichten und Debatten im Internet. Von Montag bis Donnerstag um 17.40 Uhr in der Rubrik «Screenshot» bei Radio SRF 2 Kultur.

Nachdem sich auf Tays Twitter-Account Posts häuften wie «Feministen sollten in der Hölle verbrennen» oder «Hitler hatte recht. Ich hasse Juden», schaltete Microsoft den Bot aus und löschte alle politisch unkorrekten Einträge. Das Unternehmen entschuldigte sich und versprach, die künstliche Intelligenz zu überarbeiten.

Warum ist's interessant?

Das Experiment zeigt, dass Unternehmen fleissig an künstlicher Intelligenz arbeiten, die vom Menschen lernen und diesem dadurch näherkommen soll. Während in China ein Chat-Roboter seit 2015 zum mitfühlenden Freund von Millionen Chinesen gehört, ist er in der englischen Version zum Feind politischer Korrektheit geworden.

Es zeigt aber auch, dass Bots nicht klüger sind als die Menschen, die sie programmieren, bzw. beeinflussen – und keine Moral haben. Und dass die Gefahr des Missbrauchs und der Manipulation dementsprechend gross ist.

Meistgelesene Artikel