Zum Inhalt springen

Header

Inhalt

Wenn Computer urteilen Warum auch Algorithmen unfair sind

Die App «Justice.exe» möchte zeigen, dass maschinell erzeugte Urteile im Justizsystem gefährlich sein können. Der Hintergrund: Richter mancher US-Staaten stützen ihre Entscheide auf Risiko-Berechnungen, die ein Algorithmus erstellt hat.

Worum geht's?

Die App «Justice.exe» funktioniert so: Der Spieler übernimmt die Rolle eines Richters und urteilt über 50 kleine und schwere Verbrechen.

Zu sehen ist jeweils ein Bild des Verbrechers sowie Angaben zu Straftat, Herkunft, Alter, Beruf, Vorbestrafungen etc. Wählen kann man zwischen der minimalen oder der maximalen Strafe.

Am Schluss werden die Entscheide ausgewertet: Hat der Spieler härter geurteilt, wenn der Verbrecher schwarz war? War er gnädiger, wenn der Verurteilte eine Arbeit hatte?

Warum ist's interessant?

Jede Voreingenommenheit wird registriert und beeinflusst den Algorithmus. Und auch wenn der Spieler völlig unbefangen urteilt, leitet der Algorithmus ein Muster ab – in diesem Fall agiert der Algorithmus also genau so willkürlich.

Entwickelt wurde das Spiel von Studenten der University of Utah, um das Bewusstsein zu stärken, dass Algorithmen im Justizsystem gefährlich sein können. Denn diese werden in US-amerikanischen Gerichtssälen zum Teil angewendet, um ein Gerichtsurteil zu stützen.

Screenshot

Box aufklappen Box zuklappen

Wir sprechen über aktuelle Geschichten und Debatten im Internet. Von Montag bis Donnerstag um 17.40 Uhr in der Rubrik «Screenshot» bei Radio SRF 2 Kultur.

Die Absicht hinter dieser juristischen Methode ist eine gut gemeinte: Durch den Algorithmus sollen fairere Urteile gefällt werden. «Justice.exe» aber zeigt: Auch Maschinen sind nur Menschen.

Die Spiel-App «Justice.exe»

«Machine Bias – There's software used across the country to predict future criminals. And its' biased against blacks. (Pro Publica)

Meistgelesene Artikel