![](https://images.torial.com/jRlbFvsWh9RJLl91hwI-i0dNhrQ=/https%3A%2F%2Fwww.rnz.de%2Fcms_media%2Fmodule_img%2F692%2F346096_1_articleopengraph_image_6e426657f37cbb2f.jpg)
Constantinos Daskalakis neben seinem eigenen Konterfei vor der Neuen Universität: Der 37-jährige Informatiker ist in seiner Heimat Griechenland ein Star. Foto: Kreutzer
Informatiker Daskalakis erklärt, wieso künstliche Intelligenz wie ein Baby ist.
Constantinos Daskalakis ist ein Shootingstar der Informatik – Für ihn hat künstliche Intelligenz eine „religiöse Dimension“ – Der 37-Jährige skizziert drei Zukunftsszenarien
Das Markenzeichen von Constantinos Daskalakis ist seine Frisur. Doch so wild das Haar des 37-jährigen Griechen, so klar sind seine Gedanken. Der Informatiker ist dieses Jahr zum ersten Mal zu Gast beim Heidelberg Laureate Forum. Denn erst vor acht Wochen erhielt er seine "Eintrittskarte" für die Konferenz: In Rio de Janeiro wurde er für seine herausragenden Arbeiten auf dem Gebiet der theoretischen Informatik mit dem Nevanlinna-Preis ausgezeichnet. Im RNZ-Gespräch erklärt Daskalakis, wieso er sich auf eine Zukunft freut, in der Menschen und Maschinen sich fruchtbar ergänzen – und weshalb künstliche Intelligenz wie ein Baby ist.
Herr Daskalakis, Sie sehen in der mangelnden "Glaubwürdigkeit künstlicher Intelligenz" eine der größten Sorgen der Menschheit. Was meinen Sie?
Wenn wir eine Brücke über einen Abgrund bauen, dann wollen wir Sicherheit, dass sie nicht einfach zusammenbricht – und die haben wir auch. Bei künstlicher Intelligenz sind wir noch nicht soweit. Wenn aber bald ein Computer statt eines Arztes entscheidet, ob auf einem Gehirn-Scan ein Tumor zu sehen ist oder nicht, dann müssen wir uns auf diese Maschine verlassen können.
Das ist doch nur noch eine Frage der Zeit, bis der Computer das besser kann als der Arzt, oder?
Wir arbeiten dran – aber es ist eine riesige Herausforderung. Einer meiner Studenten hat einmal eine Schildkröte in 3D ausgedruckt und die Textur ihres Panzers nur ganz leicht verändert. Und was macht der Computer, der entscheiden soll, was das ist? Er sieht ein Gewehr! So ein Fehler wäre am Flughafen-Sicherheitscheck jedenfalls alles andere als wünschenswert.
Haben Sie manchmal Angst vor dieser Zukunft?
Nein. Denn es liegt an uns, was wir aus diesen Möglichkeiten machen. Es gibt drei Szenarien: Erstens eine Welt, ich nenne sie "Wunderland", in der Menschen und Maschinen sich fruchtbar ergänzen – und das Leben der Menschen schöner machen. Im zweiten pessimistischen Szenario, ich nenne es "Pessiland", leben Menschen und Maschinen in ständigem Konflikt – das wäre eine ziemliche Katastrophe. Und schließlich, drittens, ist auch noch denkbar, dass wir künftig in "Stagnatien" leben.
In Stagnatien bleibt einfach alles, wie es heute ist?
Das nicht. Aber in Stagnatien haben wir es einfach nicht geschafft, super-intelligente Maschinen zu erschaffen, die nicht nur eine spezifische Intelligenz für eine spezifische Aufgabe besitzen. Nehmen Sie selbstfahrende Autos: Die können ja nur eine spezielle Sache gut: fahren, ohne einen Unfall zu bauen. Wenn wir da nicht weiterkommen und lediglich solche Spezialmaschinen mit Spezialintelligenz bauen: Das wäre eine sehr langweilige Zukunft.
An welches Szenario glauben Sie?
Ich glaube, dass wir diesen riesigen Schritt machen werden, der uns vor Stagnatien bewahrt. Denn wir wissen ja, dass so etwas wie eine allgemeine, lernende Intelligenz existiert – das menschliche Gehirn.
Um dieses fantastische Gehirn zu entwickeln, brauchte es allerdings ein paar Milliarden Jahre Evolution.
(lacht) Ich hoffe, bei den Maschinen geht es schneller. Ich will jedenfalls noch am Leben sein, wenn es so weit ist. Wenn der Mensch seine eigenen Fähigkeiten auf diese Weise reproduziert – für mich hat das eine religiöse Dimension.
Und wenn es dann doch Pessiland wird?
Es gibt eine tolle "South Park"-Folge, in der Cartman einige Jahrhunderte verschläft. Als ihn die Menschen der Zukunft aufwecken, gibt es keine Religionen mehr. Alle sind super-intelligent. Aber es gibt ständig Kriege – zwischen verschiedenen Wissenschafts-Schulen. Was ich damit sagen will: Ob die Zukunft gut oder schlecht wird, hängt nicht von der Entwicklung der künstlichen Intelligenz ab. Die künftigen Probleme haben dieselbe Wurzel wie die heutigen: Die Menschheit entscheidet über ihr Schicksal, nicht die Technik.
Das menschliche Gehirn ist erstaunlich, aber nicht perfekt. Auch die Technik wird immer fehlerhaft bleiben. Werden Maschinen also wie Menschen sein, aber ohne die Moralvorstellungen?
Künstliche Intelligenz ist wie ein Baby, das all seine Daten von seinen Eltern bekommt. Und seine Eltern sind wir. Wir haben das bei Microsofts Chatbot Tay erlebt: Vom unschuldigen "Baby" wurde er binnen eines Tages zu einem rassistischen Dreckskerl – weil Twitter-Nutzer ihn so erzogen hatten, einfach, indem sie mit ihm kommunizierten. So sollten wir unsere Künstliche-Intelligenz-Babies natürlich nicht erziehen.
Schon selbstfahrende Autos werfen schwierige Fragen auf – etwa ob bei einem Unfall eher die eigenen Passagiere oder andere in Gefahr gebracht werden sollen. Sollten Wissenschaftler sich auch mit diesen ethischen Fragen beschäftigen?
Unbedingt. Wir Forscher wissen, was technisch möglich ist und was nicht – also sollten wir auch mithelfen, diese ethischen Fragen zu beantworten. Momentan ist unsere Demokratie aber nicht flexibel genug für einen idealen Austausch.
Was meinen Sie damit?
Die Technik entwickelt sich rasend schnell, die Gesetze hinken stets hinterher. Wir haben das bei der Beeinflussung von Wahlkämpfen durch "Fake News"-Bots im Internet gesehen. Die Demokratie ist zu langsam, zu unflexibel, um da schnell zu reagieren. Und das bringt sie in Gefahr.
Wie wollen Sie dieses Problem lösen?
Ich weiß es nicht. Aber mal provokant gefragt: Wie viele Wissenschaftler sitzen denn in den Parlamenten? Das ist durchaus auch selbstkritisch gemeint: Die Forscher müssen aus ihren Laboren und Büros kommen. Wir müssen endlich mal anfangen, richtig über dieses Problem zu diskutieren.
Zum Original