Vertrauen ist wichtig. Nur wenn wir einer Sache vertrauen, nutzen wir sie auch. Uns auf Technik zu verlassen sind wir grundsätzlich gewöhnt. Bereitwillig steigen wir in ein Flugzeug und vertrauen unsere Reise und ein Stück weit auch unser Leben den Systemen und natürlich den Fähigkeiten der Pilotinnen und Piloten an.
Dafür gibt es gute Gründe: Piloten und Pilotinnen sind gut ausgebildet. Es gibt strenge Vorschriften für die Wartung der Flugzeuge. Unzählige Sicherheitssysteme sind eingebaut. Die Zahl der Unfälle ist verschwindend gering im Vergleich zu den täglichen erfolgreichen Flügen. Dieses Beispiel lässt sich auf viele andere Technologien übertragen. Nicht selten gelten Maschinen sogar als weniger fehleranfällig und neutraler als wir Menschen.
Zu viel und zu wenig VertrauenBei künstlicher Intelligenz (KI) fehlt den meisten Menschen jedoch genau diese Erfahrung, diese Alltäglichkeit, die Sicherheit und letztlich oft auch das Vertrauen. „Wir erleben derzeit ein großes Schwanken zwischen Overtrust und Undertrust", sagt Nicole Krämer, Professorin für Sozialpsychologie an der Universität Duisburg-Essen.
Einerseits zeigen Studien, dass in der Bevölkerung eine große Skepsis gegenüber künstlicher Intelligenz herrscht. Menschen wird nicht nur ein besseres Urteilsvermögen bei relevanten Entscheidungen über Kreditvergabe, Schadenregulierung oder medizinische Diagnosen zugetraut - auch an der Telefonhotline oder im Service-Chat werden Berater und Beraterinnen aus Fleisch und Blut bevorzugt.
Auf der anderen Seite gibt es die Tendenz, KI-Anwendungen zu überschätzen. Plötzlich fangen Menschen an, im teilautonom fahrenden Auto Zeitung zu lesen, oder lassen ihre komplette Hausarbeit von ChatGPT schreiben, ohne die Fakten zu prüfen.
Potenziale und Grenzen der Technik kennenIn einer Studie der LMU München spielten Versuchspersonen Schafkopf mit vermeintlicher KI-Unterstützung. Die Forschenden erzählten ihnen dazu eine kuriose Geschichte. Eine intelligente Software generiere aus den gemessenen Hirnströmen einen unhörbaren Ton, der passend zum Spielverlauf die kognitiven Fähigkeiten verbessere.
Das Ergebnis: Die Probanden und Probandinnen verhielten sich mit der vermeintlichen KI-Unterstützung deutlich risikobereiter. Ihre feste Überzeugung: Die Maschine werde ihre Fehler schon ausbügeln. „Beides - übertriebene Skepsis und übertriebenes Vertrauen - ist kein Weg in die Zukunft. Wir müssen uns als Nutzende stärker mit den Potenzialen, aber auch den Grenzen der Technik auseinandersetzen und haben die schwere Aufgabe, uns ein eigenes Urteil über die Vertrauenswürdigkeit zu bilden", sagt Krämer.
Blick hinter die KulissenJe mehr KI-Anwendungen in unseren Alltag Einzug halten und uns teilweise Entscheidungen abnehmen, desto wichtiger wird genau diese persönliche Auseinandersetzung. Die große Herausforderung dabei: Der Blick hinter die Kulissen einer KI-Anwendung ist alles andere als trivial - weder für interessierte Laien noch für Forschende.
Mit welchen Daten wird sie trainiert und wie kommen die Ergebnisse zustande? Welche Ziele verfolgen die Technologiekonzerne, die die Algorithmen programmiert haben? Ist die KI-Anwendung wirklich vertrauenswürdig oder macht sie vielleicht sogar fatale Fehler, die nicht sofort offensichtlich sind? Zum Glück gäbe es eine naheliegende Lösung: verbindliche Standards, eine Art DIN-Norm für KI-Anwendungen. „Die Informationsverantwortung kann nicht allein bei den Nutzenden liegen. Wir brauchen Transparenzpflichten für die Entwickler. Sonst können wir kaum entscheiden, ob wir einer KI-Anwendung vertrauen können oder nicht", sagt Krämer.
Die EU will KI regulierenDie gute Nachricht: Die Europäische Union will rechtliche und ethische Rahmenbedingungen für KI-Anwendungen schaffen. Der sogenannte „Artificial Intelligence Act" ist eines der ersten KI-Gesetze weltweit. Das erklärte Ziel: KI-Anwendungen sollen die Grundrechte von Menschen nicht einschränken oder verletzen, sie sollen keinen Schaden anrichten, fair und transparent bleiben.
Dafür sollen Auflagen für die Entwicklung, das Training und die Überwachung von KI-Systemen sorgen, abgestuft nach dem Risiko für Sicherheit, Gesundheit oder Grundrechte. Der aktuelle Entwurf sieht vier Stufen vor, für ein inakzeptables, ein hohes, ein geringes und ein minimales Risiko, das von der Anwendung ausgeht.
Verschiedene StufenFür hochriskante KI-Systeme wie kritische Infrastrukturen im Straßenverkehr oder die Stromversorgung, Gesichtserkennung oder Strafverfolgung sind die Anforderungen besonders hoch. Laut EU müssen besonders hohe Anforderungen an die Qualität der Trainingsdaten gestellt werden, alle Entscheidungen müssen dokumentiert werden und am Ende muss auch eine ständige Überwachung durch Menschen gewährleistet sein.
Der Chatbot eines Telekommunikationsanbieters oder einer Versicherung ist dagegen mit einem geringen bis minimalen Risiko behaftet. Dennoch sollten auch hier Transparenzpflichten gelten. So müssen die Nutzerinnen und Nutzer immer wissen, ob sie mit einem Menschen oder einer Maschine sprechen oder chatten. Auch künstlich erzeugte Inhalte wie Bilder oder Tonaufnahmen müssen klar gekennzeichnet werden.
Noch kein SiegelAus Sicht von Philipp Slusallek, Professor am Deutschen Forschungszentrum für Künstliche Intelligenz in Saarbrücken, ist das KI-Gesetz ein dringend notwendiger Schritt sowohl für Menschen, die KI entwickeln, als auch für solche, die sie nutzen. „Die Entwickler haben durch klare Regeln und Vorgaben einen besseren Rahmen für die Arbeit an den Anwendungen und bewegen sich nicht mehr am Rande der heutigen Rechtsordnung. Für die Anwender schaffen Gütesiegel und Zertifikate eine neue Verlässlichkeit", sagt er.
Von einer Art TÜV-Siegel für vertrauenswürdige KI-Anwendungen ist man trotz der EU-Initiative jedoch noch einige Schritte entfernt. Erste Ansätze für Gütesiegel setzen vor allem auf eine intensive Begleitung der Entwicklung und schreiben zum Beispiel ein „Monitoring" durch externe Experten und Expertinnen vor.
Für Slusallek ist das nur ein erster Schritt. „Im Idealfall können wir dem Nutzer, sei es der Arzt, der ein Diagnosetool nutzt, oder der Student, der mit ChatGPT für eine Hausarbeit recherchiert, eine Wahrscheinlichkeit nennen, wie gut und zuverlässig die Anwendung funktioniert."
Es geht um mehr als nur VertrauenDie Konsequenzen aus diesem Wissen müssen dann von uns selbst gezogen werden oder bedürfen in manchen Fällen auch einer gesellschaftlichen Diskussion. Sind wir zufrieden, wenn ein Diagnosetool in der Bildgebung zu 97 Prozent Lungenkrebs erkennt, und tolerieren wir 3 Prozent Fehldiagnosen mit entsprechenden Fehlbehandlungen? Lassen wir autonome Fahrzeuge auf die Straße, die zwar deutlich weniger Menschen verletzen als heute, aber mit einer winzigen Wahrscheinlichkeit ein Kind überfahren? Wie gehen wir mit dem „Overtrust" um, wenn Autos plötzlich sehr sicher autonom fahren und Diagnosewerkzeuge sehr sicher Krebs diagnostizieren?
Mit diesen Fragen müssen sich Gesellschaft, Politik und Wissenschaft dringend auseinandersetzen und schnellstmöglich Lösungen finden. Schließlich entwickelt sich künstliche Intelligenz rasant weiter und das Versuchslabor dafür ist unser Alltag. Schon heute bewegen sich viele Anwendungsfälle am Rande der Rechtsordnung und Moralvorstellungen. Dabei bloß auf die Ehrlichkeit der entwickelnden Unternehmen zu vertrauen, erscheint mehr als naiv.
Umso wichtiger ist es, Gesetze und Regeln zu schaffen, unsere Rechte und Werte zu schützen - notfalls auch mit Verboten. Denn genau das schafft Vertrauen in die vielen guten KI-Ideen, die unser Leben verändern und verbessern können.