Laura Aha

Freie Journalistin, Berlin

3 Abos und 6 Abonnenten
Feature

Künstliche Intelligenz und Musikproduktion: Zukunftsutopie oder dystopische Realität?

Beitrag zur Reihe "Das Neue Alphabet, Band 13: Künstliche Musik", Haus der Kulturen der Welt Berlin


Wenn der kleine X Æ A-XII Musk ins Bett muss, singt ihn eine künstliche Intelligenz in den Schlaf. Das „AI Lullaby“, das seine Mutter Claire Boucher aka Grimes 2020 in Zusammenarbeit mit dem Berliner Tech-Unternehmen Endel Pacific kreiert hat, klingt beim ersten Hören in einem kurzen Promo-Clip auf dem Instagram-Kanal der kanadischen Musikerin wie der typische ambientangehauchte New-Age-Sound: Endlos kreiselnde Synth-Spiralen und schwebende Klangflächen, aus denen sich hier und da die mit Autotune verfremdete Stimme der Sängerin herauskristallisiert. Doch Endel liefert angeblich mehr als beruhigende Hintergrundbeschallung: „Personalisierte Klanglandschaften, die helfen, sich zu konzentrieren, zu entspannen und zu schlafen – unterstützt durch Neurowissenschaften“, verspricht das Unternehmen auf seiner Website.[1] „AI Lullaby“ soll sich in Echtzeit individuell an die Umgebung, das Wetter und die Lichtsituation anpassen. Oder wie Grimes es in einem Zitat weiter unten selbst beschreibt: „This project is basically live remixing of ambient music by robots for babies, haha.“

 

Man kann sich wohl kaum ein Paar vorstellen, dass sein Baby eher von Robotern in den Schlaf wiegen ließe, als Grimes und Elon Musk – schließlich heißt der Sohn der experimentellen Musikerin und des Tesla-Chefs und SpaceX-Gründers sogar „AI“ mit zweitem Vornamen (in der abgewandelten Schreibweise „Æ“, wie Grimes in einem Tweet[2] nach dessen Geburt erklärte). Trotzdem äußerte sich Grimes 2020 auf der Tech-Konferenz Web Summit nach der Zukunft der Musik gefragt fast schon konservativ zum Thema KI und Musikproduktion: „Everyday I thank the overlords of Ableton for cleaning up my tracks, but I do worry that AI will outpace us and make musicians obsolete. It’s inevitable.”[3] Die Urangst der Menschen, von der sogenannten „Künstlichen Intelligenz“ überholt zu werden, dominiert häufig den Diskurs. Betrachtet man jedoch historische wie aktuelle Entwicklungen im Einsatz von KI in der Musikkomposition und -produktion, ihre Potenziale und mögliche Gefahren scheint es fraglich, ob die veränderte Rolle der*des Musiker*in wirklich die einzige Sache ist, die uns schlaflose Nächten bereiten sollte. Denn die wahre Dystopie scheint an ganz anderer Stelle zutage treten. Wagen wir also zunächst einen Blick in die musikhistorische Entwicklung des Themenfeldes.

 

Freiheit versus Struktur: Musikgeschichte als klingende Mathematik

 

Der Zusammenhang zwischen Musik und Mathematik ist seit dem ersten Versuch, das klingende Ereignis zu verstehen und schriftlich zu fixieren, gerade zu inhärent in unser westliches Musikverständnis eingeschrieben. Man kennt die antike Legende von Pythagoras, der an der Schmiede vorbeilief und anhand der unterschiedlich Klänge, die die unterschiedlich großen Hämmer erzeugten, das bis heute geltende Intervallsystem aus mathematischen Teilungsverhältnissen entwickelte. Bis ins Mittelalter zählte „Musik“ im Kontext der „Septem Artes Liberales“, dem in der Antike entstandenen Kanon der sieben maßgeblichen Studienfächer, zum „Quadrivium“ und wurde somit neben Arithmetik, Geometrie und Astronomie unter den am Zahlendenken orientierten Fächern klassifiziert.

 

Auch der Zusammenhang zwischen Musik und Algorithmen, die beim Einsatz so genannter künstlicher Intelligenz in der Musikkomposition beziehungsweise –produktion eine entscheidende Rolle spielen, reicht weiter zurück als man zunächst vermuten würde. „There has long been an intimate connection between music and algorithms, as many musical formats are also bound to particular sets of rules, or algorithms“ [4], schreibt die britische Musikwissenschaftlerin Melissa Avdeeff. Beispielhaft für Kompositionsformen, die stark rationalisierten Strukturschemata folgen, lässt sich bereits die im 14. Jahrhundert entstandene isorhythmische Motette anführen. Hier werden rhythmische Pattern gebildet, die abschnittsweise auf verschiedenen Tonhöhen wiederholt werden, unabhängig kombinierbar sind und sich überschneiden. Die Idee, Musik analytisch in kleinste Einheiten zu zerlegen und daraus klingende Muster zu rekombinieren, hat sich als kompositorisches Grundprinzip bis in die Gegenwart gehalten. Auch das formelhafte Aussetzen des Kontrapunkts in der Renaissance und im Barock lässt sich als schematisiertes Kompositionsprinzip lesen. Ein jüngeres Beispiel ist das zwölftaktige Bluesschema.

 

In den avantgardistischen Strömungen des 20. Jahrhunderts wurde die Formalisierung musikalischer Komposition auf die Spitze getrieben, etwa durch die Zwölftontechnik Arnold Schönbergs. Hier strukturierte eine im Vorfeld festgelegte, alle zwölf Töne der Oktave umfassende Reihe von Intervallfolgen die daraus folgende Komposition. Diese war folglich strengen Regelns unterworfen, brach dadurch andererseits aber auch das vorherrschende Diktat der Harmonik auf und befreite sich in die Atonalität. Der vermeintliche Widerspruch, dass aus formelhafter Strukturierung und quasi-automatisierter Wiederholung kreative Neuschöpfungen entstehen können, die die bislang geltende Musikästhetik aufbrechen und über diese hinausdeuten, ist einer, dem man auch im Kontext von KI im künstlerischen Prozess immer wieder begegnet.

 

Schönbergs Reihentechnik wurde später von den Komponisten der seriellen Musik, wie Pierre Boulez, Luigi Non oder auch Karlheinz Stockhausen, aufgegriffen und insofern weiterentwickelt, als alle musikalischen Eigenschaften nach dieser vorher festgelegten Reihe organisiert wurden. Auch der prozessualen Minimal Music von Steve Reich oder Philipp Glass liegen derartige Denkprozesse zugrunde. „Die Formalisierung und die daraus resultierende Entwicklung mechanischer – und damit potenziell automatisierbarer Verfahrensweisen – wird durch ein Denken in Systemen und Mustern begünstigt, das der Komposition von Musik historisch eingeschrieben ist und deren Spannungsfeld ›Freiheit – Struktur‹ begründet“ [5], fasst die Musikwissenschaftlerin Franziska Kollinger diese musikhistorische Herleitung, die an dieser Stelle mitnichten Anspruch auf Vollständigkeit erhebt, treffend zusammen.

 

Künstliche Intelligenz als Komponistin

 

Wurde eben die Überspitzung strukturgebender Prinzipien in der Musikkomposition skizziert, muss nun auch das andere Ende des Spannungsfeldes in den Blick genommen werden: Die Freiheit beziehungsweise der Zufall. Dieser bildet nur auf den ersten Blick einen Gegensatz zur Struktur, widmet ihm die Mathematik doch ein eigenes Teilgebiet: Die Stochastik. Die musikalische Beschäftigung mit dem Zufall als kompositorisches Element ist maßgeblich seit  den 1950er Jahren, etwa bei John Cage, Pierre Boulez oder Karlheinz Stockhausen, zu beobachten. Sie wird auch als „Aleatorik“ bezeichnet, abgeleitet vom lateinischen Wort für „Würfel“.

 

Der griechische Komponist und Architekt Iannis Xenakis entwickelte aus dieser Technik eine eigenständige Kompositionsmethode, die er als „stochastische Musik“ bezeichnete. Sein Ziel: Die vollständig automatisierte Kunst. Dazu schrieb er bereits ab 1960 Programme, die Partituren erzeugten. Mithilfe seines Computerprogramms GENDYN (kurz für „Generation dynamique“) gelang Xenakis 1991 mit „GENDY3“ ein fast 20-minütiges Stück algorithmischer Musik.[6] Das besondere: Hier basierte nicht nur die notenmäßige Komposition auf dem mathematischen Algorithmus, sondern auch die Generierung akustischer Ereignisse.[7] Xenakis gilt damit als einer der zentralen Vorreiterfiguren, wenn es um den Einsatz von Algorithmen und maschinellem Lernen in der Musikkomposition geht. Und er war nicht der einzige.

 

Am Abend des 9. August 1956 kam es am Chemistry Department der University of Illinois zu einer besonderen Uraufführung: Die Wissenschaftler Lejaren A. Hiller Jr. und Leonard Isaacson präsentierten die „Illiac Suite: Streichquartett No. 4“. Benannt war sie nach dem ILLIAC Computer, der hier quasi zum Komponisten geworden war. Aus der Analyse verschiedener Werke des europäischen Musikkanons simulierte der ILLIAC-Computer menschliche Entscheidungsprozesse beim Komponieren, basierend auf programmierten Regeln – den Algorithmen. Diese ermöglichten es dem Computer, selbstständig auszuwählen und aus den getroffenen Entscheidungen eine Partitur zu erstellen.[8] Mehr wissenschaftliches Experiment denn künstlerisch geniales Werk, hielt sich die Begeisterung der Fans nach der Aufführung in Grenzen. Ein Konzertkritiker der United Press schrieb über die Aufführung: „A Musical Suite composed by an Electronic Brain was introduced by a string quartet last night , but some listener didn’t dig the beat.“ Dort wird außerdem eine Zuhörerin zitiert, die sich die Frage stellt: „Why, it does away with the need for human composers!“[9]

 

Da ist sie wieder, die Urangst, von der Maschine überholt zu werden. Die Vermenschlichung der Technik als „elektronisches Gehirn“ einerseits, die Abwertung und Klassifizierung des Gehörten als „künstlich“ im Vergleich zur „natürlichen“ menschlichen Komposition ist ein Reflex, der einem bei der Bewertung von mit KI komponierter Musik häufig begegnet. Dabei speisen sich die Daten, anhand derer etwa der ILLIAC Computer seine kompositorischen Entscheidungen traf, natürlich aus der Analyse von Menschen komponierter Werke und somit menschlichen Genius’. Interessanterweise scheint es beim Einsatz von KI in der Popmusik jedoch mittlerweiler um ganz andere Dinge zu gehen.

 

Status Quo: KI in der Popmusik

 

Melissa Avdeef unterscheidet in ihrer Analyse von „Artificial Intelligence & Popular Music“[10] zwischen „AIM“ (artificial intelligence music) und „AIPM“ (artificial intelligence popular music).  Obwohl AIPM auf AIM aufbaut, sieht sie maßgebliche Unterschiede im Einsatz von KI in der Popmusik, sowohl technisch, hinsichtlich der Rezeption als auch konzeptuell: „Whereas AIM has largely been concerned with pushing the boundaries of possibility in composition, AIPM is currently being used predominantly to speed up the production process, challenge expectations of creative expression, and will predictably mark a key shift in music production eras: analog, electric, digital, and AI.“[11] Avdeef bezeichnet die Entwicklung von AIPM als „neue Ära“, die die Art wie wir Musik produzieren, rezipieren und konsumieren, maßgeblich verändern wird. Damit ist sie nicht allein: Es gibt Prognosen darüber, dass 20 bis 30 Prozent der Top 40 Singles im kommenden Jahrzehnt teilweise oder sogar komplett mithilfe von Machine-Learning-Software geschrieben werden.[12] Für Avdeef spielen die Fragen nach der veränderten Bedeutung menschlicher Kreativität und Autor*innenschaft dabei eine eher untergeordnete Rolle. Stattdessen betrachtet sie die Potenziale, die KI als Kollaborationstool zwischen Mensch und Maschine künftig bieten könnte.

 

David Bowie war bereits 1995 von den Möglichkeiten automatisierter Technik für sein eigenes Songwriting überzeugt. Für sein Album „Outside“ ließ er sich beim Schreiben seiner Texte vom „Verbasizer“ inspirieren, einem Computerprogramm, das seine Songtexte nach einer Art Cut-Up-Technik zerschnitt und randomisiert wieder zusammensetzte. „I use it as a basis for improvisation, which might be enough to send me off to writing a song. It’s kind of like a technical dream in its own way, it will give me access to areas that I wouldn’t be thinking about otherwise“, beschreibt Bowie die Vorteile, die er in dieser Form maschineller Kollaboration sieht in einem YouTube-Video.[13]

 

Diese bewusste Nutzung von KI als „augmented creativity“[14] spielt auch in Avdeefs Analyse eine zentrale Rolle, da sie die Potenziale von KI als Kollaborationstool betont, statt diese nur als automatisierte Produktionsmaschine zu verstehen. Letztere dominiert häufig die Vorstellung, wenn von KI in der Musik die Rede ist. Ein Beispiel dafür wäre Iamus, ein Album das 2012 von der gleichnamigen Computer Cluster konzipiert wurde und vom London Symphony Orchestra eingespielt wurde. Diese Technik aus „computergenerierter Komposition“, die im nächsten Schritt von einem Orchester aufgeführt wird, weist eine konzeptuelle Nähe zur Illiac Suite auf.[15] Interessanter für den Status Quo in der aktuellen Popmusik scheint jedoch die Betrachtung der Software Flow, bei der die Grenze zwischen Komposition und Interpretation verschwimmen.

 

Flow: KI-Kollaboration und das Audio Uncanny Valley

 

„Flow Machines is a research and development and social implementation project that aims to expand the creativity of creators in music“[16], schreibt das Unternehmen auf seiner Website. Um die übliche Kritik vorwegzunehmen, beteuern die Erfinder*innen von Flow Machines hier auch direkt: „Although it is often said that AI might replace human, we believe that technology should be human centered designed. We will keep on researching and developing to let technology augument human creativity even more.“ Generell soll Flow Machines dem*der Musiker*in bei der Komposition als Co-Writer zur Seite stehen, indem etwa Melodievoschläge gemacht werden, die dem individuellen Stil der*des Produzierenden entsprechen.

 

Benannt nach dem von dem Psychologen Mihály Csíkszentmihályi 1975 erstmals beschriebenen Flow-Erlebens und dessen Bedeutung für den kreativen Prozess wird deutlich, dass das intuitive Interagieren mit der Software von Anfang an zur Grundmaxime gehörte. Die erste Version, The Continuator (2004), gilt als das erste interaktive intelligente Musiksystem, das auch von Laien und sogar Kindern benutzt werden konnte. Avdeef stellt jedoch heraus: „Unfortunately, purely interactive systems are never intelligent, and conversely, intelligent music generators are never interactive. The Continuator is an attempt to combine both worlds: interactivity and intelligent generation of music material in a single environment.” Somit funktionierte das Programm als eine Art intelligentes Looping-System, das Benutzer*innen bei der Improvisation unterstützen sollte. Mit Flow Composer und Flow Harmonizer (2014) ließen sich Leadsheets autonom generieren, Akkorde einer vorgegebenen Melodie harmonisieren und interaktiv Komponieren. Flow Machines (seit 2016) baut auf dieser Technik auf, wobei hier nun auch Text und Audio generiert werden können. Die Neuheit bei Flow Machines liegt darin, dass die Funktion des Musikstils im Kompositionsprozess einbezogen wird. „Stil“ wird dabei als eine Art formbare Textur verstanden, die sich auf musikalische Strukturen applizieren lässt.[17]

 

Erstmals Beachtung im weiteren Popdiskurs fand Flow Machines durch den französischen Musiker Benoit Carré aka SKYGGE, der 2016 den Song „Daddy’s Car“ herausbrachte.  Diesen hatte er mithilfe von Flow im Stil der Beatles komponiert.[18] 2018 brachte SKYGGE sein erstes KI-Album heraus namens „Hello World“[19] – benannt nach den ersten Worten, die jede*r Programmierer*in benutzt, wenn sie*er beginnt zu coden.[20] Das Ergebnis konnte sich durchaus hören lassen – auch wenn man natürlich einräumen muss, dass die Popsongs eher als „Musik mit KI“ statt als „Musik von KI“ bezeichnet werden müssen. Am Ende des Tages war es eben doch ein „echten“ Musiker, der die Ideen quasi frankensteinähnlich zusammennähte, um ihnen Struktur und Emotion zu geben. „Without people, its songs would be a bit rubbish“[21], sagt Benoit Carré selbst.

 

Das größte Problem beim Einsatz von KI scheint aktuell noch die Simulation menschlicher Stimmen zu sein. Auch wenn man den Sound der Beatles in „Daddy’s Car“ durchaus hören kann, klingen die Lyrics, die stellenweise etwas sinnlos und unverständlich erscheinen[22], künstlich und auf eine gruselige Art unmenschlich. Avdeef verwendet hierfür den Begriff des „Audio Uncanny Valley“. Der Begriff stammt von der japanische Robotikerin Masashiro Mori, die 1970 erstmals ein „Uncanny Valley“ in Verlauf ihres Graphen beobachtete, mit dem sie die Akzeptanzreaktionen von Menschen auf menschenähnliche Roboter darstellte und analysierte. Je ähnlicher die Roboter dem Menschen waren, umso mehr stieg die Akzeptanz. Ab einem bestimmten Punkt ließ sich jedoch ein starker Einbruch in der Akzeptanz beurteilen, nämlich dann, wenn der Roboter zwar als „menschlich“ wahrgenommen wurde, die Abweichungen vom tatsächlich menschlichen Verhalten jedoch immer noch in Nuancen wahrnehmbar waren und als negativ und störend bewertet wurden. Im Verlauf der Akzeptanzkurve entsteht somit ein „Gruselgraben“.

 

Das „Audio Uncanny Valley“ lässt sich somit auf unerwartete, für das menschliche Ohr ungewohnte musikalische Ereignisse durch von KI generierte Musik applizieren. Dabei reagieren nicht alle Menschen gleich: Avdeef geht davon aus, dass die Reaktionen von der Sozialisation und Hörerfahrung abhängen. Folglich müsse es eine Generationslücke geben, wenn es um die Bewertung geht. In Bezug auf KI in der Popmusik ist somit abzusehen, dass das, was heute noch als „unmenschlich“ wahrgenommen wird, für jüngere Generationen völlig normal und gewohnt klingen wird. Als Vergleich nennt Avdeef den veränderten Einsatz von Autotune, der aus der heutigen Musik kaum noch wegzudenken ist. Wenn Ältere heute noch schaudern, wenn sie die unverständlichen Lyrics in „Daddy’s Car“ nicht so recht entschlüsseln können, stören sich heutige K-Pop-Fans aus dem Westen sicher weniger daran, die Lyrics eines Songs nicht zu verstehen und als abstrakte Silbenkonstellationen zu begreifen.[23] Das Unbehagen speise sich demnach weniger aus dem tatsächlich Gehörten, als aus dem Wissen, dass diese Musik nicht komplett von einem Menschen kreiert wurde.

 

Kritik: Stimmmanipulation und Algorithmic Bias

 

Dass das Einspeisen menschlicher Stimmen in die Künstliche Intelligenz auch andere Probleme mit sich bringt, damit setzen sich die KI-Pionier*innen Holly Herndon und Mat Dryhurst in ihrer Arbeit immer wieder auseinander. 2019 brachten sie das Album „PROTO“ heraus, das mithilfe der von ihnen entwickelten künstlichen Intelligenz Spawn entstand. Im Gegensatz zu experimentellen Musiker-Kolleg*innen wie Actress als Young Paint, geht es bei Spawn nicht darum, mit KI den Produktionsprozess zu automatisieren. Vielmehr ist Spawn ein gleichberechtigtes Ensemblemitglied in einem menschlichen Chor. Trainiert hatte Herndon die KI mit ihrer eigenen Stimme. Die Grenzen zwischen KI und Künstlerin verschwimmen somit und werfen die Frage auf, wer in solchen Konstellationen eigentlich die Rechte an der Musik hält. Für Herndon ist klar: „If it’s a voice model made from my voice—even if it’s my publicly accessible, recorded voice—that voice model is my voice. The human whose voice trained it should be paid for it.“[24]

 

Anders sieht es aus, wenn KI mit dem musikalischen Material anderer Künstler*innen arbeitet. Müssten nicht etwa die Beatles auch Lizenzgebühren aus „Daddy’s Car“ erhalten? Herndon dazu: „This has made me think a lot about our human archive and what it means to create something, release it, and share it. In her book Steal This Music: How Intellectual Property Law Affects Musical Creativity, Joanna Demers says that, in the ’70s, Miles Davis criticized hip-hop as “artistic necrophilia” for relying on the past artistic decisions in our shared archive. I disagree with him, but I love that phrase. With AI, you could have a Tupac hologram and create an entirely new Tupac catalogue using his voice model, and it could be something he would’ve never opted for. What does it say about us as a society that we keep reanimating the dead for our entertainment?“[25]

 

Herndon stellt damit die Individualität der eigenen Stimme und das persönliche Recht darauf auf radikale Art infrage. Ihre Überlegungen dazu sind jedoch nicht von der Hand zu weisen: „If you think about someone like Elvis Presley, his vocal style came from a long list of largely African American singers. The history of pop music is one of emulation. The voice isn’t necessarily individual; it belongs to a community, to a culture, to a society.“ Beim Einsatz von KI, die sich letztlich aus dem gesamten musikhistorischen Kanon speist, bleibt die Frage nach Rechten und Lizenzen dennoch ein zentrales Problemfeld.

 

Gleichzeit eröffnet sich hierbei auch eine ethische Dimension, die die größte politische Sprengkraft besitzt: Der sogenannte Algorithmic Bias. Es ist ein komplexes Feld, auf das hier nicht in der nötigen Tiefe eingegangen werden kann. Allgemein werden hierbei von Kritiker*innen insbesondere die Daten problematisiert, auf denen Algorithmen und maschinelles Lernen basieren, da in diese zwangsläufig Machtstrukturen und Denksysteme der Vergangenheit eingeschrieben seien. Tiara Roxanne, eine der Vordenkerinnen auf dem Gebiet, spricht in diesem Zusammenhang auch von „Datenkolonialismus“, durch den sich die fehlende Repräsentation marginalisierter Gruppen, in ihrem Fall bezogen auf Indigene Menschen, als koloniale Kontinuität in den Datensätzen fortschreiben. Roxanne kritisiert darüberhinaus den White Gaze von Künstlichen Intelligenzen: „Machine Learning Systeme werden vom white gaze umgeschrieben und erschaffen so eine nicht enden wollende Feedbackschleife welche dazu beiträgt, dass die Herrschaft des Siedler Kolonialismus weiterhin bestehen bleibt. Alles wird durch und von whiteness geformt, da whiteness immer die Idee bleibt, welche unbeachtet im Hintergrund mitarbeitet.“[26]

 

Funktionale Gebrauchsmusik: KI als Gegenwartsbewältigung

 

Zusammenfassend lässt sich also sagen, dass der zeitgenössische Einsatz von KI in der (Pop)musik ein hochdiskursives Feld, das neben zahlreichen Potenzialen auch Gefahren birgt. Am sinnvollsten und mitunter auch verbreitesten scheint der Einsatz aktuell in der Generierung von Gebrauchsmusik zu sein. Das Prinzip „Generative Music“ findet sich bereits bei Brian Enos „Generative Music 1“ von 1996. Mithilfe des Programms SSEYO Koan schuf Eno automatisierte Musik, die in Echtzeit generiert wurde.[27] Als endlos fließender, sich dauernd verändernder Klangteppich finden sich hier Parallelen zum eingangs beschriebenen „AI Lullaby“ von Grimes und Endel.

 

Auch die Software Amper muss in diesem Kontext erwähnt werden: Hiermit lässt sich lizenzfreie Hintergrundmusik für Videos oder Podcasts kreieren, die durch die Vorgabe etwa von Stimmung, Tempo und Instrumentation individuell erstellt wird. Die Musikerin Taryn Southern nutzte die Software für ihr Songwriting und brachte mit „I AM AI“ 2017 das angebliche erste Album heraus, das vollständig mit KI geschrieben und produziert wurde. [28] Auch mit AIVA und Jukedeck lassen sich automatisierte Soundtracks generieren, für die bei der Benutzung keine Lizenzgebühren anfallen. Letztere wurde 2019 von TikTok aufgekauft. Die App hat das Nutzungs- und Rezeptionsverhalten von Musik in den letzten Jahren wie kaum eine andere geprägt und verändert. Was diese Übernahme nun für den Einsatz und die Weiterentwicklung von mit KI-generierter Musik auf der beliebten Social Media Plattform bedeutet, bleibt abzuwarten.

 

Es scheint, als habe die Pandemie das Bedürfnis nach automatisierter, individuell anpassbarer Funktionsmusik noch gesteigert: Endel, mit der Grimes das Schlaflied für ihren Sohn komponierte, zählte neben Zoom und Disney+ 2020 zu den beliebtesten App Store Apps des Jahres.[29] Eine Reihe, die die drei großen Grundbedürfnisse im Pandemiejahr kaum besser abbilden könnte: Verbindung, Ablenkung, Entspannung. „We are not evolving fast enough. Our bodies and minds are not fit for the new world we live in“, entwirft Endel in einem so betitelten „Manifesto“ auf seiner Website eine dystopische Zukunft: „Information overload is destroying our psyche“[30], heißt es dort, illustriert von einer Mondsichel, die ihre Spitze unablässig in den Schädel eines Menschen bohrt. Der visionäre Philosoph und Medientheoretiker Marshall McLuhan wird zitiert:

 

„We're forcing the new media to do the work of the old. We're witnessing a clash of cataclysmic proportions between two great technologies. We approach the new with the psychological conditioning and sensory responses to the old.“ Da unsere alten, menschlichen Gehirne die hochmoderne, komplexe Technik, die wir mit ihnen erschaffen haben, nicht mehr bewältigen können, brauche es Endel zufolge externe Technik, quasi als Upgrade des menschlichen Geistes. Damit bezieht sich das Unternehmen auf McLuhan, der Medien als eine Art Extension verstand, eine Veräußerung des menschlichen Körpers. Wenn das Rad eine Erweiterung des Fußes ist, mit dem wir nicht mehr selber laufen müssen, ist der Computer also eine Veräußerung des Gehirns.[31] Endel bezeichnet sich auf seiner Website daher vollmundig als „tech-aided bodily function“.

 

„Wir formen unsere Werkzeuge, und dann formen die Werkzeuge uns.“[32] McLuhans berühmt gewordener Satz aus „Das Medium ist die Botschaft“ von 1967 scheint mit Bezug auf KI aktueller denn je. Dass Utopie und Dystopie in solchen Medienszenarien nah beieinander liegen und unauflösbar miteinander verknüpft sind, hat McLuhan schon früh erkannt. Oder um es mit Endels Worten zu sagen: „We need the technology that makes our lives better without us having to do anything. Welcome to the future.“


 

 

Quellen

 

Avdeeff, Melissa: Artificial Intelligence & Popular Music: SKYGGE, Flow Machines, and the Audio Uncanny Valley. Coventry. 2019.

Funk, Tiffany: Deep Listening: Early Computational Composition and its Influence on Algorithmic Aesthetics. Chicago. 2019.

Hoffmann, Peter: Mathematik zum Klingen gebracht. Die dynamische stochastische Synthese von lannis Xenakis. Braunschweig/Wiesbaden. 2000.

Kollinger, Franziska: Wenn aus Zahlen Töne werden... Überlegungen zu computergenerierter Musik und Komposition. In: Christoph Engemann und Andreas Sudmann (Hg.). Machine Learning – Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Bielefeld. 2018.

Roxanne, Tiara: Re-Präsentation verweigern. In: netzforma* e.V. (Hg.): Wenn KI dann feministisch: Impulse aus Wissenschaft und Aktivismus. Berlin. 2020.

Nicholls, Steven; Cunningham, Stuart; Picking, Richard. Collaborative Artificial Intelligence in Music Production. New York. 2018.

 

Weblinks:

 

https://ailullaby.endel.io/

https://twitter.com/Grimezsz/status/1257836061520101377

https://www.dazeddigital.com/music/article/51378/1/grimes-says-she-worries-ai-will-one-day-make-musicians-obsolete-web-summit

https://abbeyroadinstitute.nl/blog/current-state-ai-in-music-production/

https://youtu.be/x3IKLMgFaDA

https://www.flow-machines.com/

https://www.theverge.com/2016/9/26/13055938/ai-pop-song-daddys-car-sony

https://www.youtube.com/watch?v=jPp0jIJvDQs&ab_channel=SKYGGEMUSIC

https://www.artnews.com/art-in-america/interviews/holly-herndon-emily-mcdermott-spawn-ai-1202674301/

https://www.theverge.com/2017/8/27/16197196/taryn-southern-album-artificial-intelligence-interview

https://www.deutschlandfunk.de/das-medium-ist-die-botschaft.1148.de.html?dram:article_id=180798

https://developer.apple.com/app-store/best-of-2020/

https://manifesto.endel.io/

 



[4] Avdeeff, Melissa: Artificial Intelligence & Popular Music: SKYGGE, Flow Machines, and the Audio Uncanny Valley. Coventry. 2019. S.3.

[5] Kollinger, Franziska: Wenn aus Zahlen Töne werden... Überlegungen zu computergenerierter Musik und Komposition. In: Christoph Engemann und Andreas Sudmann (Hg.). Machine Learning – Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Bielefeld. 2018. S. 299.

[6] Hoffmann, Peter: Mathematik zum Klingen gebracht. Die dynamische stochastische Synthese von lannis Xenakis. Braunschweig/Wiesbaden. 2000. S. 270.

[7] Kollinger, S. 297.

[8] Vgl. ebd.

[9] Funk, Tiffany: Deep Listening: Early Computational Composition and its Influence on Algorithmic Aesthetics. Chicago. 2019. S.46.

[10] Avdeef (2019).

[11] Ebd. S.2.

[14] Avdeef (2019). S. 2.

[15] Kollinger (2018). S. 1.

[17] Vgl. Avdeef (2019). S. 7.

[20] Avdeef (2019). S. 11.

[23] Vgl. Avdeef (2019). S. 10.

[25] Ebd.

[26] Roxanne, Tiara: Re-Präsentation verweigern. In: netzforma* e.V. (Hg.): Wenn KI dann feministisch: Impulse aus Wissenschaft und Aktivismus. Berlin. 2020. S. 151.

[27] Nicholls, Steven; Cunningham, Stuart; Picking, Richard. Collaborative Artificial Intelligence in Music Production. New York. 2018. S. 2.

 

[32] Ebd.