6 Abos und 2 Abonnenten
Artikel

Wenn künstliche Intelligenz schreibt: Journalismus ohne Herz und Menschen

Derzeit wird in vielen Branchen diskutiert, ob Künstliche Intelligenz den Menschen als Arbeitskraft ersetzt – auch im Journalismus.

Kann künstliche Intelligenz Journalisten ersetzen? Antworten von ChatGPT und zwei Experten.


"In den letzten Jahren hat sich ChatGPT als mächtige KI-Technologie für den Journalismus etabliert. Es kann schnell und präzise Artikel und Berichte erstellen, was es für Redaktionen attraktiv macht. Allerdings birgt die Nutzung von ChatGPT auch einige Gefahren für die Integrität des Journalismus."

Diesen Absatz hat kein Journalist geschrieben. Er stammt aus der digitalen Feder des Chatbots ChatGPT der Firma OpenAI, über den derzeit breit diskutiert wird. In vielen Branchen sowie in Schulen und Universitäten wird thematisiert, wie sich derartige Technologien auf die Arbeits- und Lernwelt auswirken werden. Auch die Arbeit von Journalistinnen und Journalisten betrifft künstliche Intelligenz (KI). Das zeigt etwa der Artikel, den ChatGPT in nicht einmal eineinhalb Minuten für den Autor dieser Zeilen verfasst hat. Für eine nicht künstliche Intelligenz ist das nicht machbar. Heraus kam ein leserlicher, wenn auch wenig kreativer Artikel, der gut strukturiert ist.

Weshalb das Programm derart schnell einen Text schreiben kann, erklärt die Kommunikationswissenschafterin Charlotte Spencer-Smith von der Universität Salzburg: "Die Programme greifen auf eine enorme Menge an Textdaten von Websites, Büchern, sozialen Medien und Foren zurück." Im Fall von ChatGPT seien es 300 Milliarden Wörter, die bis 2021 eingespeist worden seien. Auf dieser Grundlage würden die Algorithmen berechnen, welche Wortkombinationen Sinn ergäben. "Das Programm erkennt Muster und errechnet, welches Wort als Nächstes kommen muss", erklärt Spencer-Smith und ergänzt, dass dieses Vorgehen nicht neu sei: "Wenn man bei Google ,Schokolade' eingibt, dann schlägt die Suchmaschine Begriffe vor, die häufig im Zusammenhang mit Schokolade gesucht werden - ChatGPT macht das genauso und stellt so die Sätze zusammen."

Dieses Prinzip der Textgenerierung birgt allerdings auch Gefahren, wie die KI selbst schreibt:

"Eine der Gefahren von KI im Journalismus ist die Möglichkeit, dass falsche oder fehlerhafte Informationen verbreitet werden. Da ChatGPT auf einer großen MengeanDaten trainiert wurde, kann es falsche Informationen enthalten, die in seinen Artikeln verwendet werden. Dies kann zu irreführenden Berichten führen, was die Glaubwürdigkeit des Journalismus beeinträchtigen kann."

Wie fehleranfällig Texte von ChatGPT und Co. sein können, zeigte ein SN-Check und illustrierte - unfreiwillig - die US-amerikanische Technikwebsite CNET. Diese veröffentlichte jüngst mehr als 70 Artikel, die von einer KI verfasst wurden. Obwohl die Texte nach Angaben des Medienhauses vor der Veröffentlichung geprüft wurden, konnten in den Texten zahlreiche Fehler gefunden werden. Wie CNET später selbst veröffentlichte, mussten bei einer "kleinen Anzahl" der Artikel "erhebliche Korrekturen" vorgenommen werden. Die Beiträge waren zu diesem Zeitpunkt bereits online.

Auch ein Phänomen, das als "KI-Halluzinationen" bezeichnet werde, gebe zu denken. "Es ist schon vorgekommen, dass künstliche Intelligenz von Ereignissen berichtet hat, die nie stattgefunden haben", sagt Spencer-Smith. So berichtete ein Datenwissenschafter in einem Artikel der "New York Times" von einem Dialog mit dem Google-Programm LaMDA. Die KI behauptete darin etwa, dass der Schriftsteller Mark Twain schon für den "Blue-Jeans"-Mogul Levi Strauss gearbeitet habe, was nie der Fall war.

Trotz Problemen wie dieser, würden die Programme dennoch langfristig eine Rolle im Journalismus spielen, ist sich Jan Krone von der Fachhochschule in St. Pölten sicher. Krone verweist darauf, dass die Technologie bereits seit einiger Zeit im Journalismus Anwendung findet: "Wir kennen das aus einigen journalistischen Rubriken bereits seit Längerem unter dem Terminus ,Roboterjournalismus'."

Insbesondere in der Berichterstattung zu Wetter-, Sport- und Finanzdaten sei dies der Fall: "Bei diesen Inhalten gibt es eine vergleichsweise einfache Struktur, die verarbeitet werden kann: Temperatur, Wolken, Schnee, Ergebnisse, Ort des Geschehens." Medienschaffende, die in diesen Ressorts arbeiten, könnten laut dem Experten die Zeit nutzen, um Zusammenhänge herzustellen oder Interviews zu führen. Krone rät dazu, die Technologien nicht zu verteufeln, sondern als Chance zu begreifen: "Vor dem Hintergrund der schwierigen Ressourcenlage des Journalismus können solche Programme Entlastung schaffen. Es hängt vom eigenen Anspruch und den Möglichkeiten ab, in welchem Maße auf solche Programme zurückgegriffen wird." So setzt die Nachrichtenagentur Associated Press (AP) bereits seit 2015 auf künstliche Intelligenz. Dadurch sollen Mitarbeiterinnen und Mitarbeiter entlastet werden. Die KI verfasst hier zwar keine Artikel, unterstützt die Redaktion aber dabei, Interviews zu transkribieren oder Kurzfassungen bereits geschriebener Meldungen zu generieren.

"Ein weiteres Risiko ist die Möglichkeit, dass ChatGPT-Artikel die originalen Stimmen und Perspektiven von Menschen überdecken. Während es bequem ist, einen Artikel von einer KI zu erstellen, ist es wichtig, dass der Journalismus die Stimmen und Geschichten von echten Menschen zeigt."

Dass dies der Fall ist, zeigt sich auch in diesem Artikel. Während ChatGPT lediglich Informationen zur Verfügung stellte, ließ die nicht künstliche Intelligenz Informationen von Menschen einordnen. "Man hat gegenüber Menschen eine höhere Akzeptanzbereitschaft als bei Programmen", sagt Spencer-Smith. Insbesondere Vertrauen sei im Journalismus zentral. Dies habe sich auch bei CNET gezeigt: "Dadurch, dass die Artikel nicht gekennzeichnet waren, haben sich die Menschen betrogen gefühlt."

Zudem sei der Mensch in der Lage, kritisch zu denken und ethisch zu handeln - ein Programm könne das nicht. Journalismus sei deutlich mehr als nur "Informationen bereitzustellen", fasst Spencer-Smith zusammen.

Zum Original