2 Abos und 9 Abonnenten
Artikel

Künstliche Intelligenz: Einseitig begabt

Das Grundeinkommen ist immer wieder Bestandteil der Diskussionen zur künstlichen Intelligenz. Denn wie sollen wir Geld verdienen, wenn in Zukunft Algorithmen noch mehr unserer Aufgaben übernehmen? Wird es wirklich so weit kommen, dass für den Menschen keine Arbeit mehr bleibt? Eine Standortbestimmung.

Wäre eine Maschine schon in der Lage, gute Texte über den Stand von maschinellem Lernen zu schreiben, hätte eine Mutter wie ich diese Woche ein Problem weniger. Sie müsste nicht die Kinder um 16 Uhr aus der Kita abholen. Ihre Mutter hätte nicht übermorgen Geburtstag, und sie müsste auch nicht darüber nachdenken, was sie heute zum Abendessen kocht. Ich leider schon. Ein Knopfdruck, schon fiele ein Beitrag raus, in dem jeder nachlesen könnte, was Maschinen heute schon können und was nicht.

Leider sind wir von solchen Maschinen - manche nennen sie künstliche Intelligenzen - noch recht weit entfernt. Stattdessen stellte sich neulich heraus, dass der Online-Versandhändler Amazon seine Sprachassistentin Alexa mithilfe von Menschen trainieren lässt. Sie sitzen in einem gläsernen Hochhaus etwa in Bukarest und hören sich neun Stunden am Tag Gespräche an, die Alexa mit ihren Nutzern führte. Dann fügen sie Schlagworte hinzu und machen Vorschläge, wie sie besser hätte antworten können.

Die Enthüllungen von „Bloomberg" waren ein Schock für viele, die Amazons Assistentin als kleinen schwarzen Zylinder in ihren Wohnungen stehen haben und sich nun fragen, ob ein anderer Mensch ihre privaten Gespräche belauscht hat. Und sie zeigen sehr gut, in welchem Stadium sich maschinelles Lernen derzeit befindet. In Menschenjahren gerechnet wäre Alexa wohl noch nicht mal schulreif. Sie „weiß" zwar vermeintlich, wer der fünfte Präsident der Vereinigten Staaten war, dass Angela Merkel Bundeskanzlerin ist oder dass das Wetter in Berlin kalt und sonnig wird. Komplexere Fragen bringen sie jedoch völlig aus dem Tritt. Denn intelligent in dem Sinne, wie wir uns das vorstellen, ist sie nicht.

Erkennung von Mustern: Ist das schon Intelligenz?

Alexa kann nicht denken, sie kann Muster erkennen in unserer Sprache: Wenn wir die Worte „München" und „Entfernung" nennen, folgert sie, dass wir sehr wahrscheinlich wissen wollen, wie weit es nach München ist. Sie berechnet also aufgrund von Mustern in Daten - denn nichts anderes ist unsere Sprache für sie - die Wahrscheinlichkeit, mit der eine bestimmte Antwort uns zufriedenstellen wird. Je öfter wir diese Fragen stellen, umso besser wird sie darin, die Wahrscheinlichkeit zu erhöhen, mit der die Antwort stimmt. So funktioniert maschinelles Lernen, ganz egal, ob es dazu eingesetzt wird, Gesichter auf Bildern zu erkennen, Texte in eine andere Sprache zu übersetzen, Bewerbungen zu sortieren oder uns eine passende Serie auf Netflix vorzuschlagen.

Mit Lernen, wie es Kinder tun, hat das wenig zu tun. Das lässt sich gut am Beispiel von maschineller Bilderkennung nachvollziehen. Die Maschine sucht auch hier nach Mustern in den Daten: Pixel in bestimmten Farben oder Kantenverläufe. Wenn man ihr häufig genug die Information gibt „Dieser Haufen brauner Pixel ist ein Hund", dann ordnet sie irgendwann mit hoher Wahrscheinlichkeit diesem Merkmal das Schlüsselwort „Hund" zu.

Ein Kind erkennt aber nicht nur einen Hund. Es begreift, was ein Hund ist. Es würde in der Folge wohl auch Dackel, Cockerspaniel und Boxer als Hunde erkennen oder einen Hund, der Männchen macht, statt das Bein zu heben. Die Maschine kann das nicht. Sie muss erst unzählige Bilder von Hunden in allen möglichen Farben, Formen und Körperhaltungen vorgelegt bekommen, bis sie irgendwann eigenständig zu dem Ergebnis kommt, dass es sich beidieser Kombination von Merkmalenum einen Hund handelt. Trainingsdaten nennt man diese Informationsbasis; und um gute Ergebnisse zu liefern, brauchen Maschinen eine Menge davon.

Oft kommt es dabei zu unfreiwillig komischen Effekten, wie etwa Martin Steinebach berichtet, der am Fraunhofer-Institut für Sichere Informationstechnologie zu Bilderkennung forscht. Sein System wollte das Foto einer Frau im Swimmingpool partout nur als Mann identifizieren, weil die Abgebildete eine Bierdose in der Hand hielt. Erst als die Dose unkenntlich gemacht wurde, ließ es sich überzeugen, dass dort eine Frau zu sehen war. Im Referenzdatenset waren Bierdosen wohl ausschließlich in der Hand von Männern aufgetaucht. Der Algorithmus hielt sie deswegen für einen wichtigeren Hinweis auf das Geschlecht als Brüste.

Leicht überfordert: Künstliche Intelligenzen sind nur dazu in der Lage, eine einzige Aufgabe auszuführen. © Craig Sybert/Unsplash

Fokussierte Fachidioten

So etwas würde einem Menschen eher nicht passieren. Dafür ist unser Gehirn viel zu gut darin, unser Gegenüber binnen Millisekunden einem Geschlecht zuzuordnen. Die Künstlerin Hito Steyerl und der KI-Forscher Alan Bundy sprechen in diesem Zusammenhang auch von „künstlicher Dummheit". Denn die Maschinen, die wir heute als vermeintliche künstliche Intelligenzen auf Aufgaben ansetzen, sind in Wirklichkeit Fachidioten: Sie können eine einzige Sache und sonst nichts. Ein System, das trainiert wurde, Hunde von Katzen zu unterscheiden, kann nur exakt diese Aufgabe lösen. Eine Maschine, die Go spielt, wird keinen Schachzug berechnen können. Wissenschaftler bezeichnen diese Systeme deswegen als „enge" oder „schwache" künstliche Intelligenz. Nur mit solchen Maschinen haben wir es heute zu tun. Selbst ein System wie das viel beachtete Watson von IBM, das Ärzte bei der Diagnostik unterstützen soll oder in Japan Versicherungspolicen auswertet, fällt in diese Kategorie. Auch Watson kann sich keine eigenen Ziele setzen oder eigene Trainingsdaten suchen, um diese zu erreichen. Eine Maschine, die das könnte und dadurch eine menschenähnliche Intelligenz entwickeln würde, ist derzeit noch ein Szenario aus der Science-Fiction, da sind sich Fachleute einig.

Man ist heute vorsichtig geworden mit Prognosen in dieser Branche. Vielleicht weil man aus der Vergangenheit gelernt hat. Marvin Minsky, ein Pionier der Forschung, hat im Jahr 1970 dem Magazin „Life" noch begeistert erzählt, die Entwicklung einer Maschine mit der durchschnittlichen Intelligenz eines Menschen stünde in „drei bis acht Jahren" bevor. Er ging davon aus, so eine Maschine würde Shakespeare lesen können, die Teile eines Autos schmieren und Witze erzählen. Nun ja.

Man könnte jetzt sagen: bisschen in der Skala verschätzt. Aber es geht nicht um die Frage, ob wir so eine Maschine in zehn, dreißig oder hundert Jahren entwickeln werden, sagt etwa die Informatikerin Virginia Dignum. So eine Intelligenz falle vielmehr in eine ganz andere Kategorie als unsere heutigen Systeme. Man könne sie nicht erreichen, indem man immer komplexere „enge" Systeme baue. Und vermutlich wird die Leistung von digitalen Computern niemals dazu ausreichen. Wenn das stimmt, dann sind wir heute so weit von einer tatsächlichen künstlichen Intelligenz entfernt, wie wir es schon immer waren.

Allerdings gibt es auch heute schon ziemlich viele Bereiche, in denen uns die künstlich dummen Maschinen mit ihrer Hyperspezialisierung überlegen sind. Im Spiel Go zum Beispiel besiegte eine Software der Google-Tochterfirma DeepMind den besten Profispieler der Welt. Maschinen können auch wesentlich besser als wir mit gigantischen Datenmengen umgehen. Wenn es darum geht, Millionen von Bildern und Videos im Internet nach Gewaltdarstellungen, Pornografie oder urheberrechtlich geschütztem Material zu durchsuchen, dann kann eine Maschine das schneller und unbeteiligter erledigen als jeder Mensch. Google und Facebook setzen sie schon zu genau diesem Zweck ein. Sie wird dabei nicht ermüden, nicht abschweifen, nie an sich zweifeln, sich nicht ärgern. Sie macht einfach weiter.

Vorurteile haben Maschinen ebenso

Lange hieß es, ein weiterer Vorteil von Maschinen sei deren Objektivität. Anders als wir notorisch irrational handelnden Menschen hegten sie eben keine Vorurteile und könnten strikt rational entscheiden. Inzwischen weiß man, dass das nicht stimmt.

Schlimmer noch: Maschinen reproduzieren und verstärken Vorurteile, häufig unbeabsichtigt. Ein Algorithmus, der für Amazon Bewerbungen vorsortieren sollte, stufte Frauen im Bewerberstapel nach unten, auch wenn das Geschlecht in die Bewertung gar nicht eingeflossen ist. Er war aber vor allem mit Lebensläufen von Männern trainiert worden. Und so brachte er sich selbst bei, dass bestimmte Muster in den Bewerbungen zu bevorzugen seien, die eben mehr auf Männer zutrafen als auf Frauen. Inzwischen wurde das Projekt eingestellt, weil Amazon nicht in der Lage war, das Problem in den Griff zu bekommen.

Ein anderes System sollte Xerox dabei unterstützen, Kandidaten für seine Callcenterzu rekrutieren. Es hatte Bewerber aus ärmeren Gegenden als höheres Risiko für die Firma eingeschätzt. Nicht, weil sie arm waren, sondern weil sie einen längeren Anfahrtsweg zu Arbeit hatten. Die Daten aus der Vergangenheit zeigten: Wer täglich pendeln muss, kündigt schneller und verursacht damit höhere Kosten. Xerox hat den Einsatz des Systems daraufhin beendet.

Keine große Hilfe: Dort, wo uns Algorithmen unterstützen sollen, machen sie häufig Fehler oder diskriminieren aus Versehen. © Koukichi Takahashi/EyeEm

„Proxy-Diskriminierung" nennt sich das, eine Art indirekte Benachteiligung. Da wird eine bestimmte Adresse zum Platzhalter für das Einkommen, ein Hobby zum Platzhalter für das Geschlecht. Menschen würden diese Muster in den riesigen Datenmengen mit bloßem Auge gar nicht erkennen. Die Maschinen schon.

An anderen Stellen führen die Algorithmen unbeabsichtigt die Fehler und Ungerechtigkeiten fort, die Menschen bereits vor ihnen gemacht hatten. Schließlich analysieren sie Daten aus der Vergangenheit, um Vorhersagen über die Zukunft zu treffen - und wenn in einer Firma Frauen bereits früher seltener befördert wurden und schneller wieder kündigten, kommt die Maschine zum Schluss: Männer sind die besseren Kandidaten, auch für die Zukunft.

Trumpfspiel Mensch vs. Maschinen

Es gibt viele Dinge, die uns Maschinen heute schon abnehmen oder in nicht allzu ferner Zukunft abnehmen werden. Sprache in Text verwandeln, Autos und Lastwagen fahren, die Auslastung von Fabriken und Krankenhäusern optimieren. Die Forschung zu maschinellem Lernen nicht voranzutreiben, ist keine Option, das betonten auch die 52 Experten, die vor Kurzem für die Europäische Kommission Leitlinien für den ethischen Einsatz von künstlicher Intelligenz entwickelten. Wenn uns Maschinen dabei helfen könnten, Tuberkulose zu heilen, den Klimawandel oder Armut zu bekämpfen, dann brauchen wir ihre Unterstützung. Die Frage ist nur, wie und wozu wir sie einsetzen wollen. Denn dieselben Technologien, mit denen wir selbstfahrende Fahrzeuge steuern oder Krebsdiagnosen stellen, können wir auch anwenden, um autonome Waffen Krieg führen zu lassen oder per Gesichtserkennung Menschen bei jedem Schritt zu überwachen. Heute schon entscheiden an vielen Stellen dumme Algorithmen über Lebensbereiche, die wir besser Menschen überlassen sollten, egal ob dumm oder intelligent. Maschinen treffen Prognosen darüber, wer eine bestimmte Sozialleistung bekommt, wo die Polizei Streife fährt, welche Angeklagten vor Gericht als besonderes Risiko gelten.

Noch ist meist ein Mensch in der Entscheidungskette dazwischengeschaltet, das kann sich aber ändern. Mehr denn je müssen wir uns fragen, in welchen Bereichen wir die Maschinen für uns Entscheidungen treffen lassen und wo das niemals der Fall sein soll.

Vielleicht wird demnächst eine Maschine einen Beitrag für mich schreiben. Oder eher für Sie, denn ich werde dann hoffentlich mit anderen Dingen mein Geld verdienen. So ein Algorithmus würde berechnen, welche Informationen Sie hier lesen wollen. Er könnte mich auch daran erinnern, rechtzeitig einen Blumenstrauß für meine Mutter zu besorgen, den Sekt kalt zu stellen oder auf Basis unserer Chatnachrichten aus dem vergangenen Jahr das optimale Geschenk vorschlagen. Das fände ich gar nicht schlecht. Was so eine Maschine aber ganz sicher niemals wissen wird, ist, wie es sich anfühlt, eine Mutter zu haben oder eine Mutter zu sein. Und wie schön es ist, jetzt Feierabend zu haben, die Kinder abzuholen und dann auf dem Heimweg Pizza zu besorgen, weil es zum Kochen nicht mehr reicht.

Zum Original