Lösung für alles oder riesengroße Bedrohung? Kaum eine Technologieentwicklung wird so kontrovers diskutiert wie KI. Aber was meinen wir, wenn wir von KI reden?
KI ist die Abkürzung für Künstliche Intelligenz, die auch als Artifizielle Intelligenz (AI) bezeichnet wird. Dabei wird zwischen „schwacher" und „starker" KI unterschieden. Erstere befasst sich mit maschinellem Lernen, also dem Einsatz einer lernfähigen Software, die gigantische Datenmengen auswertet und daraus Entscheidungen ableitet.
Zweitere ist zu diesem Zeitpunkt nur theoretisch. Die „starke" KI würde über mathematische Gleichungen hinausgehen und die gleichen intellektuellen Fähigkeiten wie ein Mensch besitzen. Sie ist beliebtes Sujet in Science-Fiction à la „Terminator" und „Star Trek".
Sogenannte schwache KI steckt etwa in Sprachassistenten wie Siri oder Alexa, Suchmaschinenalgorithmen und selbstfahrenden Autos. Sie wird in der Medizin zur Unterstützung für die Diagnostik verwendet und findet sich in Einparkhilfen. Sie wird auch eingesetzt, um Jobbewerber*innen einzustufen und in der Überwachungstechnik mit Biometrie kombiniert, um Menschen per Gesichtserkennung via Kameranetz im öffentlichen Raum aufzuspüren.
Indem gegenwärtige Anwendungen von KI so programmiert sind, dass sie aus den umfangreichen Daten aus früheren Beispielen für ähnliches Verhalten „lernen", bilden sie nicht nur soziale Verhältnisse ab, sie reproduzieren diese auch - Stereotype und Diskriminierungen inklusive. Es geht also nicht nur um technische Details, sondern um gesellschaftspolitisch relevante Fragen. Etwa wenn ein Algorithmus bei Jobgesprächen Männer besser bewertet als Frauen - aus dem einfachen Grund, weil sich in der Vergangenheit mehr Männer beworben hatten.
Digitale Dekolonialisierung. Im Rahmen der aktuellen Dekolonialisierungsdebatte drängen sich für viele Afrikaner*innen Fragen auf: Wessen Geschichte wird im Internet erzählt? Wie beeinflussen KI, Algorithmen und Bots unsere Sicht auf die Welt und wie verstärken sie Rassismus?
In diesem Zusammenhang hat das Goethe-Institut Südafrika die Reihe „Wikipedia Edit-a-Thon" veranstaltet, die Teilnehmer*innen in Afrika darin bestärken sollte, Artikel für das weltgrößte Informationsportal Wikipedia zu schreiben und zu redigieren. Die meisten Artikel stammen dabei aus Federn - oder eher: Tastaturen - von Menschen in Europa und den USA.
Die Konsequenz: Themen und Perspektiven von Beitragenden aus anderen Teilen der Welt, wie etwa Afrika, kommen zu kurz und können damit nicht wahrgenommen werden. Besonders zu Beiträgen in afrikanischen Sprachen wurde ermuntert.
Aber zurück zum KI-Podcast-Projekt in Kenia. Was sich aus den 15 Folgen heraushören ließ: „Alle waren besorgt", sagt der Journalist James Murua, Gastgeber der Serie. Afrikaner*innen seien gegenwärtig nur Nutzer*innen von KI, in ihre Entwicklung und die Entscheidungen über ihre Verwendung aber nicht einbezogen. Dies werde in den sogenannten entwickelten Wirtschaftsnationen bestimmt.
„Man war sich einig, dass wir auf dem Kontinent eine aktivere Rolle spielen und aufpassen müssen, welche Auswirkungen Künstliche Intelligenz für uns hat", resümiert Initiator Murua.
Durch wessen Linse werden wir mit KI überwacht und welche Gesellschaftsentwürfe stecken dahinter?Große Erwartungen. John Walubengo hat vor allem die positiven Aspekte im Blick. KI sei schon lange in unserem täglichen Umgang mit Informationstechnologien, mit dem Internet verankert, betont er. Walubengo ist als kenianischer Informationswissenschaftler Mitglied der Arbeitsgruppe zu KI. Eingesetzt von der kenianischen Regierung hat diese Arbeitsgruppe Empfehlungen entwickelt, wie Kenia in Zukunft KI zum Vorteil des Landes nutzen kann. Es gebe viele wirtschaftliche Chancen für Kenia, heißt es im Bericht.
KI könne zudem dafür genutzt werden, Korruption zu bekämpfen und die Interessen der Bürger*innen zu schützen. Bei Wahlen etwa kann KI die Stimmenauszählung in Echtzeit ermöglichen und die Wahlergebnisse transparent und damit vor allem vertrauenswürdig werden lassen - gerade in Ländern wie Kenia, in denen es bei landesweiten Wahlen immer wieder zu gewalttätigen Auseinandersetzungen kommt, kann dies demokratiefördernd sein und Leben retten.
Für Walubengo ist KI ein nützliches Instrument, um Prognosen zu erstellen, die bei Entscheidungen helfen, wie etwa die Vorhersage von Dürreperioden durch die Auswertung von riesigen Datenmengen wie bei Google Maps.
„Anwendungen Künstlicher Intelligenz werden im und für den Globalen Norden produziert, aber irgendwann werden sie an die Bedürfnisse des Globalen Südens angepasst", sagt Walubengo. Als Beispiel nennt er Gesichtserkennungs-Software, die zunächst weiße Gesichter erkennen „lernte", deren Technik aber schließlich auch schwarze Gesichter einschließen musste.
„Künstliche Intelligenz wird viele Arbeitsplätze kosten", warnt der Wissenschaftler. „Vor dieser Realität können wir uns nicht verstecken." Neue Technologien wie KI würden aber auch neue Jobs mit neuen Anforderungen hervorbringen, und zwar solche, die „monotone, sich wiederholende Vorgänge durch kreative Arbeit ersetzen".
So optimistisch sehen das aber längst nicht alle Expert*innen, auch nicht jene, die in der Podcast-Reihe zu Wort kommen.
Keine neutrale Technologie. Weniger hoffnungsvoll als der Informationswissenschaftler Walubengo beobachtet Nanjira Sambuli die aktuelle Entwicklung. Der kenianischen Autorin, Advocacy-Strategin und Analystin ist es wichtig, „Nuancen und Diversität in einer Welt zu schaffen, die sonst homogen von nur einer Kategorie Mensch beschrieben" werden würde.
Technologie sei nicht neutral, wiederholt sie in ihrem Podcast-Beitrag und mahnt, die Machtverhältnisse zu hinterfragen. In Kenia etwa erlaubt die Regierung einem privaten Unternehmen Zugang zu persönlichen Daten der Bevölkerung und verspricht im Gegenzug einen bestimmten Service.
Sambuli selbst ist daher daran gelegen, Menschen dabei zu helfen, die Risiken der Verletzung ihrer Persönlichkeitsrechte zu verstehen, bevor ihnen gewisse Entscheidungen weggenommen würden. Unternehmen würden digitale Fußabdrücke im Internet über einen langen Zeitraum hin sammeln und beispielsweise auf deren Grundlage den Nutzer*innen Informations- und Werbeangebote machen. „Sind es dann noch wir, die die Entscheidungen treffen?", fragt sie.
Während die „erste Generation" Künstlicher Intelligenz (KI) sich noch mit Muster-, Text- und Bilderkennung befasste, geht es inzwischen um KI, die helfen kann, zeitnahe Entscheidungen in komplexen Zusammenhängen zu treffen. Das tunesisch-britische Startup Instadeep baut genau solche Systeme - und hat sich gerade in einer zweiten Finanzierungsrunde 100 Millionen US-Dollar an Investitionsgeldern gesichert.
Zu den Investoren gehört auch das deutsche Pharma-Unternehmen Biontech, Hersteller des Corona-Impfstoffs Cominarty, das 2020 mit Instadeep eine Innovationswerkstatt für KI und maschinelles Lernen gegründet hatte, um neue Immuntherapien zu entwickeln.
Im November vergangenen Jahres teilte das Unternehmen mit, ein Frühwarnsystem für hochriskante SARS-CoV-2-Varianten entwickelt zu haben. Es identifizierte mehr als 90 Prozent der von der Weltgesundheitsorganisation (WHO) deklarierten Varianten durchschnittlich zwei Monate vor Ausbruch und entdeckte Omikron drei Tage bevor sie von der WHO als besorgniserregend eingestuft worden war. Zusammen mit Google arbeitet Instadeep an einem Frühwarnsystem für Ausbrüche von Wüstenheuschreckenplagen in Afrika.
Von Instadeeps 170 Angestellten arbeitet etwa die Hälfte in Afrika. Neben Südafrikas Aerobotics und der Hearx Group ist Instadeep eines der wenigen afrikanischen Unternehmen, das dem Kontinent eine Stimme in der globalen Zukunft von KI verleiht. „Es ist möglich, eine global wettbewerbsfähige Firma mit afrikanischen Wurzeln zu gründen, die in die Welt echter Tech-Innovationen gut integriert ist", sagt Karim Beguir, Geschäftsführer der Technologie-Website Techcrunch. A. B.