Achtung Algorithmus! Irren ist menschlich – aber nicht nur

Algorithmen haben unseren Alltag erobert. Doch ihnen passieren auch Fehler. Forscher fordern nun einen unabhängigen Aufpasser.

Mensch sitzt neben Roboter auf einer Bank.

Bildlegende: Maschinen sollen unsere Aufgaben übernehmen, möglichst nicht unsere Fehler. Getty Images

  • Juristisch ist es schwierig, gegen Fehlentscheide von Algorithmen vorzugehen, denn das Gesetz kennt keine Algorithmen.
  • Eine Forscherin schlägt eine unabhängige Instanz vor, die Algorithmen bei möglichen Fehlentscheidungen begutachten soll.
  • Der Robotik-Philosoph Oliver Bendel fordert eine Grundsatzdiskussion über das Verhältnis von Mensch und Maschinen.

Ein Algorithmus ist eigentlich nichts anderes als eine Anleitung, mit der ein Computer ein Problem lösen kann. Das können sehr einfache Anleitungen sein, zum Beispiel wie ein Computer den Durchschnitt aus zwei Zahlen ausrechnen soll.

Fälschlicherweise verdächtig

Doch Algorithmen können auch Anleitungen für sehr komplexe Aufgaben sein: Sie steuern Roboter. Sie sagen die Wahrscheinlichkeit für einen Einbruch in einem bestimmten Stadtteil vorher. Oder sie prüfen bei der Passkontrolle am Flughafen innert Sekunden, ob jemand in einer Datenbank für mutmassliche Terroristen vermerkt ist.


Maschinen entscheiden, Menschen leiden

28 min, aus Wissenschaftsmagazin vom 04.02.2017

Dabei machen Algorithmen auch Fehler, wenn sie etwa die falschen Daten verwenden. Oder einen falschen Schluss aus diesen Daten ziehen.

Die Folgen: Menschen werden irrtümlich betrieben, am Flughafen fälschlicherweise für Terroristen gehalten, oder sitzen längere Haftstrafen ab, als sie müssten.

Das sagt der Jurist

Martin Steiger ist Rechtsanwalt und spezialisiert auf Datenschutzrecht. Am häufigsten seien seine Klientinnen und Klienten betroffen, indem sie von ihrer Bank fälschlicherweise keinen Kredit bekommen.

Das liesse sich auf einen Fehler im Algorithmus der Bank zurückführen: «In der Schweiz kann jeder betrieben werden, unabhängig davon, ob tatsächlich eine Schuld besteht. Eine Betreibung gilt für einen Algorithmus aber häufig als Signal für eine fehlende Bonität. Die Daten sind zutreffend – es gab eine Betreibung – aber man kann daraus nicht schliessen, dass es an der Bonität fehlt.»

«Voralgorithmische» Gesetzgebung

Derzeit sei es schwierig, gegen solche Fehler vorzugehen. Die Betroffenen müssten mit einer Klage bis vor Gericht gehen, das sei aufwändig und teuer.

Das Schweizer Datenschutzgesetz wisse nicht, was ein Algorithmus ist – genauso wie die Gesetze vielerorts auf der Welt. Die Gesetze wurden geschrieben, bevor Algorithmen unseren Alltag erobert haben.

Ein neues Datenschutzgesetz

Das Schweizer Datenschutzgesetz wird deshalb überarbeitet. Dabei orientiert man sich stark am europäischen Datenschutzgesetz, das 2018 in Kraft tritt.

Wie gut dieses funktioniert, hat eine Forschergruppe untersucht. Sie stellt fest: Auch im neuen Gesetz können Firmen nicht dazu verpflichtet werden, ihre Algorithmen offenzulegen und genau zu erklären, wie der Fehlentscheid zustande kam.

Das sagt die Forscherin

Sandra Wachter ist Juristin und gehört zu den Forschern, die das europäische Gesetz untersucht haben. Sie schlägt vor, eine unabhängige Instanz einsetzen: «Diese hätte dann die Rechte, den Algorithmus zu begutachten. Sie könnte prüfen, ob der Algorithmus funktioniert und faire, nachvollziehbare Entscheidungen trifft.»

Doch mittlerweile sind viele Algorithmen so komplex, dass auch eine solche Prüfinstanz nicht immer genügt. Nicht selten verstehen selbst die Programmierer eines Algorithmus' nicht mehr genau, wie dieser zu seinen Entscheidungen kommt.

Das sagt der Philosoph

Der Robotik-Philosoph Oliver Bendel forscht zum Thema Maschinen-Ethik. Er versucht, Robotern moralisches Verhalten beizubringen.

Bendel fordert eine Grundsatzdiskussion: «Wir müssen unser Verhältnis zu Robotern und den Algorithmen, die sie steuern, neu überdenken. Und zwar in einer möglichst breiten Diskussion zwischen Informatikern, Juristinnen, Ethikern und Philosophinnen.»

Entscheidung über Leben und Tod

Es geht um Fragen wie: Für welche Aufgaben wollen wir Algorithmen einsetzen – und für welche besser nicht? Brauchen Algorithmen eine Notbremse? Wollen wir Algorithmen über Leben und Tod entscheiden lassen?

Antworten darauf brauchen wir spätestens dann, wenn Roboter im Krieg eingesetzt werden sollen oder die Lebensfunktionen von schwer kranken Patienten überwachen.

Sendung: Radio SRF 2 Kultur, Wissenschaftsmagazin, 4.2.2017, 12.40 Uhr

Clevere Maschinen

  • «Computer, die wie Menschen denken»: Was werden Computer in Zukunft alles leisten ?
  • «Zukunft ohne Kopfzerbrechen?»: Wie Maschinen bald für uns denken.
  • «Wie Kampfroboter den Krieg humaner machen sollen» : Roboter im Krieg könnten Leben retten, sagt ein Roboterforscher.
  • «Wir müssen über Algorithmen reden»: Vertrauen ist gut, Kontrolle ist besser.

Buchhinweise

  • Cathy O'Neil: «Weapons of Math Deconstruction». Crown Random House, 2016.
  • Luke Dormehl: «The Formula: How Algorithms Solve all our Problems … and Create More». WH Allen, 2014.

Sendung zu diesem Artikel

Sendungsbeitrag zu diesem Artikel

  • Das Phalanx-System Schützt US-Kriegsschiffe vor Raketen. Der Kapitän muss das System zwar einschalten, wenn aber sein Schiff angegriffen wird, fragt der Roboter Phalanx (Bild) nicht mehr um Erlaubnis.

    Sind Roboter die «besseren» Soldaten?

    Aus Echo der Zeit vom 19.1.2017

    Roboter haben längst einen festen Platz in Kriegen: Feindliche Stellungen werden mit unbemannten Drohnen angegriffen, an gewissen Orten werden Grenzen mit bewaffneten Robotern gesichert.

    Zahlreiche Forscher und Aktivisten fordern ein Verbot vollautomatischer Kriegsroboter, auch die UNO diskutiert darüber. Forscher Ron Arkin aus den USA hingegen verteidigt die Kriegsroboter.

    Thomas Häusler