1 Abo und 3 Abonnenten
Artikel

Künstliche Generative Intelligenz: Wie KI nützt statt schadet

Der rasante Aufstieg Künstlicher Intelligenz kränkt unsere Eitelkeit und macht uns Angst. Dabei ist sie nur so gefährlich oder nützlich, wie wir es ihr erlauben. Ein Plädoyer für eine wachsame Zusammenarbeit.

Als im vergangenen Winter eine Künstliche Intelligenz auftauchte, die Texte schreiben, coden und Gemälde malen kann, war das ein Fehdehandschuh für das menschliche Ego. Auch für das journalistische. Schließlich war uns an der Journalistenschule zu Beginn der 2010er noch feierlich versichert worden: Dieser Beruf macht euch zwar nicht reich, aber immerhin werdet ihr nicht so schnell durch einen Computer ersetzt werden.

Damals war man noch überzeugt, die Automatisierung werde innerhalb weniger Jahrzehnte Jobs wie Lkw-Fahrer oder Bauarbeiterin übernehmen und eine Massenarbeitslosigkeit auslösen. Kreative, so hieß es, würden noch eine Weile verschont bleiben, da Künstliche Intelligenz (kurz: KI) nun mal nicht narrativ arbeiten könne.

Doch die KI hat uns eingeholt. Der Chatbot ChatGPT des Unternehmens OpenAI, ursprünglich der Tech Menagerie von Elon Musk entsprungen, ist seit Dezember 2022 online und kann auf Befehl komplexe akademische Artikel, Liebesbriefe oder Exposés für eine Netflix-Serie verfassen. Dies gelingt durch ein riesiges Künstliches Neuronales Netz* (KNN), ein mathematisches System, das Berge von Daten in atemberaubender Geschwindigkeit analysieren und Muster erkennen kann, schneller und effizienter als ein menschliches Gehirn. Die Technologie von OpenAI hat es dabei geschafft, bisherige Hürden bei der Entwicklung von KI zu überwinden. Dazu zählen ein schlechtes „Gedächtnis" des Systems sowie mangelnde Komplexität und Ästhetik in der Erzeugung von Sprache und Bildern. Das Ergebnis sind immer besser werdende Simulationen menschlichen Ausdrucks.

Ein Chatbot besser als Studierende

Eine Autorin des amerikanischen Mediums Insider stellte ChatGPT in einem Selbstversuch auf die Probe. Sie ließ das Programm Bewerbungsschreiben für sich verfassen und schickte sie an HR-Abteilungen. Die befanden, dass zwar die Persönlichkeit der Verfasserin nicht wirklich durchscheine, der Text aber für eine Einladung zum Vorstellungsgespräch reiche. Weltweit wurden bereits erfolgreich akademische Hausarbeiten mit dem Bot gefälscht oder zumindest großzügig angereichert. Einmal sogar eine Grudiertenprüfung bestanden. Katharina Zweig, Informatik-Professorin und Expertin für KI-Anwendungen, sagte im Forschungsbericht des Projekts „Demokratie und KI" des Wissenschaftszentrums Berlin, dass ChatGPT „deutlich besser schreibt" als die Mehrzahl ihrer Studierenden. Ähnlich beeindruckend sind Kunst-KIs wie DALL-E (ebenfalls OpenAI), Stable Diffusion oder Midjourney: Nach der Eingabe von Stichworten stellen sie innerhalb einiger Sekunden auf Grundlage ihres erlernten Wissens über Illustration und Kunst Bilder her. Diese sind oft nicht nur bemerkenswert ästhetisch, sondern haben auch bereits Preise gewonnen oder sind als Blockchain Kunstwerk NFT (Non Fungible Token) für teures Geld verkauft worden. Wie genau der Quellcode für diese extrem komplexe Anwendung aussieht, ist ein Geschäftsgeheimnis von OpenAI. Obwohl das Start-up gemeinnützig begann und als Basismodell noch kostenlos allen zur Verfügung steht, wurde für die USA bereits eine optimierte Abo-Version für 20 Dollar im Monat eingeführt.

Mittlerweile hat Microsoft ChatGPT zu 49 Prozent gekauft. Das Unternehmen hat bereits angekündigt, die KI als Tool in Office-Programme wie Word, die Suchmaschine Bing und den Browser Edge integrieren zu wollen. Die Frage ist also, wie lange es dauert, bis sich nur noch zahlende Kund:innen eine solche KI leisten können. Google, das gerade seinen ChatGPT-Konkurrenten Bard in Stellung bringt, fühlt sich so bedroht von OpenAI, dass es den „code red" auslöste: Dieser interne Alarm wird nur verwendet, wenn der Silicon-Valley-Riese um seine Vormachtstellung fürchtet.

Das revolutionäre Potenzial von OpenAI macht aber nicht nur den reichen Konzernen Angst, sondern auch vielen normalen Menschen. Dass uns das Monopol unserer Spezies auf Kreativität von einer eigenen Erfindung streitig gemacht wird, führt paradoxerweise bei vielen nicht zu Stolz oder Zuversicht, sondern zu gekränkter Eitelkeit und gewaltiger Unsicherheit. Macht die KI uns überflüssig? Ist sie gefährlich? Und was können wir tun, damit sie nicht gegen uns arbeitet?

Diskutiert man diese Fragen mit dem Chatbot von OpenAI, sagt er unter anderem Folgendes:

DIE IMMER BESSER WERDENDE EFFIZIENZ VON KI KANN BEI MENSCHEN MANGELNDES SELBSTWERTGEFÜHL AUSLÖSEN, ZUR ARBEITSLOSIGKEIT UND SINNLOSIGKEIT FÜHREN. EINE MÖGLICHKEIT, DEN MENSCHEN DIE ANGST VOR KI ZU NEHMEN, BESTEHT DARIN, SIE ÜBER DIE TECHNOLOGIE UND IHRE MÖGLICHKEITEN, ABER AUCH ÜBER IHRE GRENZEN AUFZUKLÄREN: ZWAR HABEN KI-SYSTEME BEI VIELEN AUFGABEN EIN GEWISSES NIVEAU ERREICHT, DOCH SIND SIE NICHT SO FLEXIBEL UND ANPASSUNGSFÄHIG WIE DIE MENSCHLICHE INTELLIGENZ UND VERFÜGEN ÜBER KEINEN GESUNDEN MENSCHENVERSTAND.

Soweit also kein Grund zur Panik. KIs können zwar gewaltige Mengen Daten analysieren, kopieren und- das ist das Neue - zueinander in Beziehung setzen und daraus Content generieren. Aber sie sind, wie man in der Fachsprache der Informatik sagt, nicht sentient, sie haben weder Willen oder Bewusstsein noch ein Gewissen. „Daten leiden nicht", sagte der Sänger Nick Cave, als Fans ihm vom Chatbot komponierte Songtexte zusandten, die seinen Stil kopierten.

Oder wie es der deutsche Star-Komiker El Hotzo in einem Tweet ausdrückte: „Ja, KIs können Bilder malen, dichten und Texte schreiben, aber können sie sich dabei auch komplett ungenügend fühlen und selbst hassen?"

Man nennt diese zwar im gewissen Grad zur Schöpfung befähigte, aber nicht subjektive oder sich selbst in Frage stellende Technologie daher nicht kreative, sondern Generative Künstliche Intelligenz.

Generative Künstliche Intelligenz: Eine smarte Assistentin

Die New York Times befragte zahlreiche Kreative, was sie von der neuen Technologie halten. Während manche nicht über Skepsis hinauskamen, nutzten viele die Anwendungen als Tool, um sich selbst die Arbeit zu erleichtern. So entwarf eine Innenarchitektin Räume mithilfe der KI und präsentierte sie ihren Kund:innen, um ihr Design zu veranschaulichen. Andere nutzten die KI als gedanklichen Sparringspartner oder eben als Suchmaschine, ähnlich wie Google oder Ecosia. In Deutschland ließ 2021 das renommierte Beethoven Orchester die unvollendete 10. Sinfonie von Beethoven von einer eigens dafür trainierten KI zu Ende komponieren. Der Musikwissenschaftler Matthias Röder, der das Team um die KI leitete, sagte dem BR: „Komponistinnen und Komponisten könnten Künstliche Intelligenz mit ihrer eigenen Musik trainieren. Wenn die Software ihren Stil kennt, kann sie als Werkzeug beim Kompositionsprozess helfen, indem sie etwa Passagen ausarbeitet oder neue Inspiration bringt."

Im Berliner Bezirk Wedding macht man mit dem spielerischen Battle zwischen Mensch und Maschine Geld: Hier gibt es einen eintrittspflichtigen Poetry Slam, bei dem von Menschen geschriebene Texte mit denen von KIs konkurrieren und erst im Nachhinein aufgelöst wird, wer welche Zettel zu verantworten hatte. Die Generative Künstliche Intelligenz dient dem Menschen also jetzt schon als Assistentin. Ähnlich wie ein Laptop oder eine Bibliothek. Sie ersetzt ihn dabei genauso wenig, wie die Erfindung der Fotografie die Malerei getötet oder der Synthesizer die akustischen Instrumente verdrängt hat.

Andrew Ng, ein ehemaliger Stanford-Professor und KI-Experte, schrieb einmal: Die Sorge um die Gefahren einer den Menschen übertreffenden Superintelligenz ist in etwa so zukunftsfern wie die Sorge um die Überbevölkerung auf dem Mars. Statt uns also darüber den Kopf zu zerbrechen, inwiefern die KI vielleicht irgendwann unserer Spezies den Rang ablaufen könnte, sollten wir unsere Zeit besser nutzen, um ihr Potenzial auszuschöpfen.

Der Fortschritt der KI macht uns nicht überflüssig, sondern erfordert unsere Zusamenarbeit. Nur durch eine Synthese aus künstlicher und menschlicher Intelligenz kann sichergestellt werden, dass die Technik nicht nur für den Profit, sondern für das Gemeinwohl eingesetzt wird. Künstliche Generative Intelligenz kann nicht nur künstlerische Bilder erzeugen, sondern Fluchtrouten bei Bränden simulieren. Sie kann bereits jetzt Satellitenbilder analysieren, um Naturkatastrophen oder Anzeichen für Menschenhandel zu erkennen. KI kann Kamera-Bilder live in Sprache übersetzen, um blinden Menschen eine Sehhilfe zu sein, oder soziale Netzwerke auf potenzielle Attentate oder Wahlbetrug hin durchsuchen. Die Möglichkeiten sind grenzenlos.

Das soll aber nicht heißen, dass die charmante Technik nicht auch eine Menge Gefahren birgt. Die Frage nach dem Copyright von Generativen KIs ist immer noch nicht geklärt und hat bereits zu millionenschweren Plagiatsklagen, zum Beispiel von der Fotoagentur Getty Images, geführt. Dadurch, dass die Öffentlichkeit nicht weiß, wer welche Daten mit welcher Agenda in die KIs speist, kann derselbe gefährliche Bias erzeugt werden, den wir schon bei den SocialMedia-Riesen TikTok und Co sehen. Außerdem kann Künstliche Intelligenz bestehende Strukturen der Ausbeutung reproduzieren: So fanden Journalist:innen heraus, dass OpenAI ein Unternehmen damit beauftragte, ihre KIs mit problematischen Inhalten zu füttern, damit diese solchen Content filtern können. Dafür beauftragte das Unternehmen Menschen in Kenia, die nicht nur schlecht bezahlt, sondern wegen des traumatisierenden Materials auch teilweise psychisch krank wurden.

Der YouTube-Kanal Streitgut bewies, dass ChatGPT durch geschicktes Fragen trotz ethischer Filter zum Beispiel die Wähler:innenschaft einer bestimmten Partei diffamieren und Hate-Speech erzeugen kann. Da ChatGPT nur aus Datensätzen bis 2021 gespeist wurde, hat er außerdem große Wissenslücken über die Gegenwart. (Googles Bard soll dagegen auf das Echtzeit-Internet zugreifen können.) Manchmal denkt er sich einfach Falschinformationen aus. Lensa, eine sehr beliebte App für Generative Künstliche Intelligenz, mit deren Hilfe man hochwertige Selbstporträts herstellen kann, verpasste Frauen ungefragt überdimensionale Brüste, Männern dagegen einen gestählten Machokörper. Von intrinsisch rassistischen KI-Algorithmen muss man gar nicht erst anfangen.

Aber all das liegt natürlich nicht an einer teuflischen Persönlichkeit der Maschine, sondern an uns. Der Chatbot selbst erklärt das so:

DA KI EIN PRODUKT MENSCHLICHEN DESIGNS IST, KANN DIE VOREINGENOMMENHEIT DER DATEN, MIT DENEN SIE TRAINIERT WIRD, FORTBESTEHEN UND SOGAR NOCH VERSTÄRKT WERDEN. DAHER IST ES VON ENTSCHEIDENDER BEDEUTUNG, BEI DER ENTWICKLUNG VON KI EINEN STARKEN ETHISCHEN RAHMEN UND VERSCHIEDENE PERSPEKTIVEN ZU BERÜCKSICHTIGEN, UM SICHERZUSTELLEN, DASS SIE KEINE MENSCHENRECHTSVERLETZUNGEN VERURSACHT ODER UNTERSTÜTZT.

Im Fall der Porträt-App hat die KI zum Beispiel nur die durchschnittliche Darstellung von Männern und Frauen im Internet kopiert: Und die ist nun mal sexistisch und heteronormativ. Dürfen wir sie dafür kritisieren? Oder zeigt sie uns damit nur auf, wo wir dringend selbst an uns arbeiten müssen? In einem Interview verglich Julia Gundlach, die für die Bertelsmann Stiftung zur Ethik von KI-Algorithmen forscht, die Verantwortung für die ethische Gestaltung algorithmischer Systeme mit einem Orchester:„Jede Musikerin und jeder Musiker ist mit dafür verantwortlich, wie die Musik klingt, und wenn etwas schief klingt, kann man nicht den Instrumenten die Schuld geben."

Der nächste Schritt muss sein, dass die Verantwortlichen - so schnell wie möglich unter dem Schirm internationaler Gesetzgebung - mehr Kontroll-Mechanismen einrichten, um problematischen und gefährlichen Content zu unterbinden. Und das, ohne dass dabei Menschen traumatisiert werden, wie in Kenia. Zarte Anfänge gibt es bereits: Fragt man ChatGPT zum Beispiel, wie man am besten ein Auto klaut, antwortet er, dass dies eine Straftat mit schweren Konsequenzen und moralisch verwerflich sei. Der Bot speichert den Chat automatisch unter dem Vermerk: Stiehl keine Autos. Ein Sprecher von OpenAI verkündete, dass das Unternehmen daran arbeite, eine Art Wasserzeichen in die Wortwahl des Chatbots einzuflechten, um Betrug zum Beispiel bei Tests zu verhindern. Das Unternehmen Stable AI, das hinter der Kunst-KI Stable Diffusion steckt, hat eine Funktion angekündigt , um Künstler:innen die Möglichkeit zu geben, der Verarbeitung ihrer Bilder für das KI-Training zu widersprechen. Die Bertelsmann Stiftung und die Unesco haben bereits umfangreiche Empfehlungen für die ethische Programmierung von KIs entwickelt und online kostenlos zur Verfügung gestellt.

Künstliche Generative Intelligenz: Du sollst nicht töten

Natürlich wird KI trotzdem missbraucht werden. Dasselbe gilt für alle Erfindungen der Menschheit: Weil wir nicht perfekt sind, können unsere Schöpfungen es auch nicht sein. Sich dem Fortschritt zu verweigern, ist aber keine Lösung. So boykottieren wir ja auch nicht das von Kriminellen bevölkerte Internet, sondern wir versuchen, es zu kontrollieren und zu demokratisieren. Genauso müssen wir auch Künstliche Intelligenz zähmen und als Kooperationspartnerin nutzen. Wir entscheiden. Und wir setzen die Grenzen.

So gab es vor einigen Monaten eine Gänsehaut-Schlagzeile im kalifornischen San Francisco: Die Stadtregierung hatte genehmigt, dass von einer KI gesteuerte Drohnen bei Polizeieinsätzen im Notfall Kriminelle töten dürfen. Nach einem öffentlichen Aufschrei wurde die Entscheidung wieder gekippt. Die Gesetze, die der große Science-Fiction-Autor Isaac Asimov einst für Roboter erdachte, zum Beispiel: „Du darfst nicht töten", müssen auch für eine Künstliche Intelligenz unantastbar sein. Wir müssen dafür sorgen, dass sie dem Wohl der Menschheit und der Umwelt dient. Dafür braucht es neben Justizkontrolle vor allem partizipatives Design, das die Bevölkerung in all ihrer Vielfalt repräsentiert, eine Forschung, die sich auf die Energiereduktion der Technologie konzentriert - und eben menschliche Kreativität.

*Ein Künstliches Neuronales Netz Neuronales Netz (KNN), auch Deep Learning genannt, ist ein System, das gewissermaßen komplexeres Machine Learning** auf mehreren Ebenen betreibt und eine große Rechenleistung erfordert. Vereinfacht kann man sich ein Neuronales Netz als ein mathematisches Modell aus verknüpften Datenknoten vorstellen, die man Neuronen nennt. Durch Neuronale Netze können KIs je nach ihrer Spezialisierung Daten wie Bilder, Texte oder Geräusche zueinander in Beziehung setzen. Der menschliche Ausdruck kann so effektiv imitiert werden. **Machine Learning bezeichnet eine Grundlage von Künstlicher Intelligenz. Durch den Einsatz statistischer Methoden werden Algorithmen trainiert, durch Datenanalyse Muster zu erkennen und dann Klassifizierungen oder Vorhersagen zu treffen: zum Beispiel für deine Content-Auswahl bei Netflix.

Zum Original