Zum Inhalt springen

Header

Inhalt

Digital Maschinen lernen lernen – immer besser

Mit Computerprogrammen ahmen Forscher einen Teil des Lernprozesses im Gehirn nach – und diese «neuronalen Netze» haben heute beachtlichen Erfolg. Im Silicon Valley boomt diese Disziplin, und Google, Facebook und Co. investieren Millionen, um neue Anwendungen zu erschaffen.

Maschinen haben kein Gehirn. Doch manche Computerprogramme sind vom Gehirn inspiriert. Sie enthalten ein Netz aus Knotenpunkten, das ein bisschen ähnlich funktioniert wie die Abertausenden von vernetzen Nervenzellen im Gehirn.

Vereinfacht gesagt: Bewährt sich eine Verbindung zwischen zwei Knotenpunkten in einem solchen System, dann wird sie verstärkt. Bewährt sie sich nicht, wird sie geschwächt. Man nennt diese Technologie neuronale Netze oder neuerdings auch «Deep Learning». Sie gehört zum Gebiet der künstlichen Intelligenz und ist im Moment eines der wichtigsten Themen im Silicon Valley.

Sprache und Bilder erkennen

Neuronale Netze aus Lugano

Box aufklappen Box zuklappen

Auch in der Schweiz wird an der Technik geforscht, vor allem am Swiss AI Lab in Lugano im Team von Jürgen Schmidhuber. Dessen Rechenprogramme gewinnen immer wieder Wettbewerbe für Muster- und Bilderkennung. Ein Ex-Forscher des Labors ist Mitbegründer der Firma Deep Mind, die letztes Jahr für geschätzte 400 Millionen Dollar von Google gekauft wurde.

Die Technik der neuronalen Netze ist schon gut 50 Jahre alt. Sie galt zwischenzeitlich als tot, weil sie nicht richtig funktionierte. Doch nun erlebt sie eine Renaissance – dank der viel grösseren Rechenpower heutiger Computer und der gigantischen Datenmengen, mit denen man die neuronalen Netze füttern kann.

Ein Beispiel ist die Spracherkennung, die mittlerweile in jedem Smartphone eingebaut ist. Sie basiert bei allen grossen Anbietern auf neuronalen Netzen: Die Maschine lernt, was der Sprecher sagen will, indem sie in ihrem Netz taugliche Rechenverbindungen neu anlegt oder verstärkt und untaugliche Verbindungen kappt. Das funktioniert teils erstaunlich gut – viel besser jedenfalls als mit herkömmlichen Computerprogrammen.

Ein anderes Beispiel ist die Bilderkennung. Da hat es in den letzten Jahren dank neuronaler Netze ebenfalls grosse Fortschritte gegeben. So haben die Firma Google und Forscher von der Universität Stanford letztes Jahr ein Programm vorgestellt, das Bilder «anschaut» und dann als Text darunter schreibt, was auf dem Bild zu sehen ist. Das war bis dahin niemandem gelungen.

Das Thema im Radio

Box aufklappen Box zuklappen

Ein Gespräch mit Jürgen Schmidhuber vom Swiss AI Lab über künstliche Intelligenz und neuronale Netze hören Sie am Mittwoch, 22. April ab 9:02 Uhr in der Sendung «Kontext» bei Radio SRF 2 Kultur.

Pioniere wieder begehrt

Die neuronalen Netze funktionieren also. Und die Pioniere der Technik, die zwischenzeitlich ziemlich abgemeldet waren, sind plötzlich wieder extrem gefragt. Der Übervater des Forschungsgebiets ist Geoffrey Hinton. Der britische Informatiker führte in den 1980er-Jahren ein Rechenmodell ein, mit dem die neuronalen Netze besser aus Fehlern lernen können. Heute arbeitet der 67-Jährige, neben seiner Stelle an der Universität Toronto, auch noch für Google.

Ein anderer Star der Szene ist Yann LeCun. Der Franzose leitet das Labor für Künstliche Intelligenz bei Facebook. Er ist überzeugt, dass neuronale Netze noch viele interessante Anwendungen möglich machen werden – zum Beispiel selbstfahrende Autos: Sie müssen die Welt um sich herum rasch erkennen können, samt Fussgängern und Verkehrsschildern.

Doch bei allen Fortschritten bleibt LeCun zurückhaltend: «Wir sind noch sehr weit weg davon, eine Maschine zu bauen, die so leistungsfähig ist wie das menschliche Gehirn», sagte er in einem Interview mit dem Fachmagazin IEEE Spectrum.

Meistgelesene Artikel