Die App «Aipoly» beschreibt Blinden die Welt – manchmal

Smartphones sind für Menschen mit Sehbehinderungen längst zu einem unverzichtbaren Hilfsmittel im Alltag geworden. Eine neue App beschreibt Blinden die Welt um sie herum, mittels Kamera und künstlicher Intelligenz.

Das Smartphone verändert unser aller Alltag auf unterschiedliche Weise. Für Menschen mit Sehbehinderungen ist es gar zu einer unverzichtbaren Lebenshilfe geworden. Mit seinen Navigations-Funktionen bringt es sie auch an fremden Orten zuverlässig ans Ziel. Es macht Fahrpläne und ähnliche Informationen zugänglich und vereinfacht die Kommunikation mit anderen Menschen. Die iOS-App «Aipoly» soll mittels maschineller Bilderkennung Sehbehinderten gar ihre Umwelt beschreiben. Also dabei helfen, auch Dinge zu erkennen, die sich nicht ertasten oder über das Gehör erkennen lassen.

Neuronales Netzwerk auf dem Handy

Wie bei Bilderkennungs-Software üblich, arbeitet auch die App «Aipoly» (iOS) mit einem neuronalen Netz, das Bilder in mehreren Ebenen (Layers) analysiert und am Ende interpretiert. Der gesamte Prozess läuft dabei lokal auf dem Smartphone ab. Damit funktioniert die App zwar offline, heizt dem Prozessor und dem Akku des Handys aber ziemlich ein. Das Erkennen von beliebigen Bildern ist denn auch so rechenintensiv, dass es bis vor kurzem auf einem mobilen Gerät gar nicht denkbar gewesen wäre.

Selbständig dazulernen kann die App nicht. Sehende können sie allerdings korrigierern, wenn sie falsch liegt. Dazu beschreibt man das falsch interpretierte Objekt in einem kurzen Text. Diese Beschreibung wird später an den Aipoly-Server gesandt und soll für künftig bessere Resultate sorgen.

Erst Erstaunen, dann Ernüchertung

Daniele Corciulo testet Software, Webseiten und elektronische Geräte für die Stiftung «Zugang für alle» auf ihre Barrierefreiheit. Er hat eine Passion für Computer, Games und Gadgets. Daniele ist beinahe vollständig blind und hat die App mit uns getestet.

App zeigt ein Eichhörnchen und sagt, es sei ein Elefant.

Bildlegende: Unser Nager sei ein Elefant, behauptet Aipoly. SRF

Die App funktioniert denkbar einfach: Man hält die Kamera auf ein beliebiges Objekt und die App sagt, was sie meint, dass es sei. Das passiert beinahe in Echtzeit und manchmal auch überraschend akkurat. So erkennt die App einen Kaffee-Becher sofort als «Disposable Plastic Cup» (ja, sie spricht nur englisch). Andere, vermeintlich einfache Objekte wie einen Schlüsselbund hält sie dann aber ebenso überraschenderweise für einen Kerzenständer. Die anfängliche Begeisterung wich bei uns und Daniele mit zunehmender Zeit einer gewissen Ernüchterung. Denn solange die App nur ab und zu richtig, oft aber komplett daneben liegt, ist sie für einen Sehbehinderten beinahe nutzlos.

Ein Fehlschlag ist die App dennoch nicht; sie ist vielmehr ein Versprechen. Denn wenn sich die mobile Rechenleistung genauso weiterentwickelt wie auch die Software, die solche Anwendungen möglich macht, dann wird Danieles Vision schon bald einmal Realität: ein Blindenstock, der seine Umgebung mittels eingebauter Kamera erkennt und dem Träger immer den sicheren Weg zeigt.

Alternative: Helfer statt KI

Eine ähnliches Ziel mit einem grunsätzlich anderen Ansatz verfolgt die App Be My Eyes. Sie setzt nicht auf künstliche, sondern natürliche Intelligenz und die Hilfsbereitschaft Sehender. Diese Freiwilligen beschreiben den Sehbehinderten via Video-Chat, auf was auch immer die Smartphone-Kamera gerichtet ist.