Christian Honey

Independent Science Journalist & Translator, Berlin

1 subscription and 2 subscribers
Article

Künstliche Intelligenz: Die Suche nach dem Babelfisch

Eine der vielen verrückten Ideen aus Per Anhalter durch die Galaxis wird womöglich bald Wirklichkeit: der Babelfisch. In Douglas Adams' Roman lebt das Tier im Ohr seines Trägers und übersetzt simultan alle Sprachen in dessen eigene. Die reale Version wird allerdings kein Lebewesen, sondern ein Gerät im Ohr sein, die Übersetzungen ermöglicht dann eine künstliche Intelligenz (KI). Geoffrey Hinton, eine Koryphäe der KI-Forschung, arbeitet daran.

Hinton beschäftigt sich seit den achtziger Jahren mit neuronalen Netzwerken, hat das gesamte Forschungsfeld der KI revolutioniert, indem er Software beibrachte, selbständig zu lernen und dadurch die verblüffenden Leistungen von DeepMinds AlphaGo oder Googles "träumendem" Netzwerk Inception ermöglichte. Mit ZEIT ONLINE hat er über Vergangenheit, Gegenwart und Zukunft der KI gesprochen, über Sackgassen und Durchbrüche - und eben den Babelfisch.

"Wir sind schon ziemlich nah dran", sagt er. "Unsere Netzwerke sind beim Übersetzen von Englisch ins Französische schon genauso gut wie die besten kommerziell erhältlichen Programme." Wie aber funktionieren die so vielversprechenden künstlichen neuronalen Netze? Und warum erst jetzt?

Die Geschichte der KI zeigt, dass es viel mehr als nur schnellerer Computer bedurfte, um dem Babelfisch den Weg zu bereiten.

Diese Geschichte beginnt im Jahr 1943. Inspiriert von neuen Erkenntnissen der Hirnforschung zeigten der LogikerWalter Pitts und der Neurophysiologe Warren McCulloch damals mit den Mitteln der Mathematik, dass Nervenzellen im Prinzip alle logischen Operationen wie UND, ODER oder NICHT sowie deren Kombinationen durchführen können, wenn sie zu Netzwerken zusammengeschaltet werden. Ihre hypothetischen Nervenzellen hatten nur zwei mögliche Outputs: an oder aus. Ob sie aktiv wurden, hing davon ab, ob die Inputs von anderen Neuronen einen bestimmten Schwellenwert überschritten. Auf dieser Schwellenlogik basieren auch heute noch - mit ein paar Variationen - alle künstlichen neuronalen Netze.

Künstliche Intelligenz

Algorithmen, intelligente Software und Roboter können immer mehr Dinge, zu denen noch vor Kurzem allein der Mensch fähig war. Sie verarbeiten nicht nur rasant wachsende Datenmengen, sondern lesen Texte, verstehen Sprache, erkennen Gesichter und analysieren in Echtzeit ihre Umgebung - etwa um selbstständig Auto zu fahren.

Was bedeutet diese rasante Entwicklung der künstlichen Intelligenz (KI) für unser Leben, unsere Arbeitswelt und unser Menschsein? Diesen Fragen widmet sich ZEIT ONLINE regelmäßig in der Serie Maschinenraum.

Zu McCullochs und Pitts' Zeiten aber existierten noch keine Maschinen, die solche Netzwerke hätten simulieren können. Erst nach Kriegsende entwickelte ein Team an der Universität Manchester den ersten digitalen und damit zügig programmierbaren Computer nach Alan Turings Vorgaben, den Manchester Mark 1. Dessen Nachfolger, der Ferranti Mark 1, sollte im Jahr 1951 die erste künstliche Intelligenz ausführen, die den Namen halbwegs verdiente: ein Programm, das Dame spielte, und zwar schlecht.

Marvin Minskys "Neurocomputer"

Der Begriff künstliche Intelligenz existierte damals noch nicht. Die Zuversicht aber, dass Turings Maschinen bald alle logisch-mathematischen Probleme lösen würden, verbreitete sich schnell unter Ingenieuren und Wissenschaftlern. Unter ihnen war auch Marvin Minsky, ein junger Mathematiker, der gerade in Princeton promovierte. Schon als Bachelorstudent war Minsky von McCullochs und Pitts Arbeiten fasziniert gewesen. Nun konstruierte er einen "Neurocomputer" mit dem hübschen Namen SNARC (Stochastic Neural Analog Reinforcement Computer), bestehend aus 40 Röhrentransistoren als künstliche Neurone und vielen Kabeln, die sie verbanden. SNARC konnte etwas, das bis dahin Laborratten vorbehalten war: den schnellsten Weg aus einem Labyrinth finden. Damit war SNARC das erste neuronale Netz, das ein Problem aus der realen Welt löste.

Wie hoffnungsvoll die frühen KI-Forscher mit ihrem Logik-basierten Ansatz waren, zeigt sich in einem Forschungsantrag, den Marvin Minsky, Claude Shannon, Nathaniel Rochester und John McCarthy im Jahr 1955 verfassten. Gerichtet war er an die Rockefeller Institution mit der Bitte, einen Sommerkurs am Dartmouth College in New Hampshire zu finanzieren. "Wir beabsichtigen herauszufinden", schrieben die Forscher, "wie man Maschinen dazu bringt, zu sprechen, abstrakte Konzepte zu formen, alle möglichen Probleme zu lösen, die heute dem Menschen vorbehalten sind, und sich selbst dabei zu verbessern." Sieben Probleme der künstlichen Intelligenz - hier fiel der Begriff zum ersten Mal - sollten in diesem Sommer untersucht werden, darunter Kreativität, Selbstverbesserung, Abstraktion und neuronale Netze.

Das Geld wurde bewilligt, doch die erste Dartmouth-Konferenz im Sommer 1956 war nicht viel mehr als ein Treffen zum Brainstorming. Dennoch war die Begeisterung, die sie bei den Teilnehmern und in der Folge an ihren Heimatinstitutionen auslöste, riesig. Die Dartmouth-Konferenz gilt heute als Geburtsstunde der KI. Von hier aus entwickelten sich die verschiedenen Formen der künstlichen Intelligenz.

Original