Eine kurze Rezension zum Handbuch Künstliche Intelligenz und die Künste, ein darauf basierendes Interview von und mit ChatGPT sowie ein Gespräch mit der Herausgeberin des Handbuchs Stephanie Catani
von Nina Gretschmann
Zum Handbuch Künstliche Intelligenz und die Künste
Künstliche Intelligenz ist im Jahr 2024 aus wissenschaftlichen Diskursen nicht mehr wegzudenken. Dass KI auch in der Kunst – in den Künsten – eine Rolle spielt und das schon viel länger, als man vielleicht annehmen könnte, zeigt die Literatur- und Medienwissenschaftlerin Stephanie Catani in dem von ihr im Dezember 2023 herausgegebenen Handbuch Künstliche Intelligenz und die Künste.
„Von antiken Mythen über romantische und fantastische Entwürfe bis zu dystopischen Imaginationen in moderner und postmoderner Science-Fiction: Die Idee künstlichen Lebens und Künstlicher Intelligenz hat die Künste seit jeher beschäftigt, lange bevor der Begriff der Künstlichen Intelligenz Eingang in die Wissenschaften und den öffentlichen Diskurs gefunden hat.“ (Einleitung, KI und die Künste)
Welchen historischen Einfluss die Idee des künstlichen Lebens sowie der künstlichen Intelligenz auf die Künste – speziell auf Literatur, Theater, Film, zeitgenössischer Kunst sowie Gaming – genommen hat, wird im ersten Teil des Handbuchs fundiert ausgeführt. Der zweite Teil widmet sich der Frage, wie KI im künstlerischen Schaffensprozess als Werkzeug genutzt werden kann. Im dritten Teil des Handbuchs wird auf einzelne Diskurse sowie Kontexte, wie beispielsweise die Frage der Autor*innenschaft, der Kreativität oder auch der Ethik im Zusammenhang mit KI, eingegangen. Der abschließende Teil des Handbuchs zeigt exemplarische Analysen.
Durch diese Gliederung wird ein umfassender Blick auf die historische sowie gegenwärtige Rolle der Künstlichen Intelligenz in den verschiedenen Bereichen der Kunst geworfen. Eine klare Leseempfehlung für alle KI- und Kunstinteressierten!
Interview von und mit ChatGPT (März 2024)
Möchte man als Schauinsblau-Redakteurin die Literatur- und Medienwissenschaftlerin Stephanie Catani, die seit 2021 den Lehrstuhl für Neuere deutsche Literaturgeschichte an der Julius-Maximilians-Universität Würzburg leitet, dazu interviewen, könnte man sich hierfür selbst Fragen überlegen. … Oder: Man beauftragt ChatGPT damit, Fragen zum Handbuch Künstliche Intelligenz und die Künste zu generieren, um auf diese Weise die KI „zu Wort“ kommen zu lassen. Es wäre schließlich durchaus interessant, zu wissen, welche Fragen eine KI zu diesem Thema stellen würde. Noch interessanter wäre es allerdings, wenn man in einem nächsten Schritt die Fragen von ChatGPT selbst beantworten ließe. Wie „beantwortet“ eine KI Fragen zum Thema „Künstliche Intelligenz und die Künste“. Im Folgenden findet sich ein Auszug eines von und mit ChatGPT geführten Interviews. [ChatGPT hatte Zugriff auf das Inhaltsverzeichnis des Handbuchs und sollte darauf basierend Fragen generieren. Anschließend wurden diese Fragen als Prompt an ChatGPT gestellt und von der KI beantwortet. Anm. d. Red.]
ChatGPT
Wie verändert die Integration von Künstlicher Intelligenz das Konzept der Autorschaft in der Literatur und anderen künstlerischen Formen, und welche Fragen wirft dies bezüglich der kreativen Verantwortung auf?
ChatGPT
Die Integration von Künstlicher Intelligenz verändert das Konzept der Autorschaft in der Literatur und anderen künstlerischen Formen, indem sie die traditionelle Vorstellung des Einzelnen als alleiniger Schöpfer in Frage stellt. KI kann aktiv am kreativen Prozess teilnehmen, von der Generierung von Texten bis hin zur Erstellung von Kunstwerken.
Diese Veränderung wirft Fragen bezüglich der kreativen Verantwortung auf. Wenn KI-Systeme an der Produktion von Kunst beteiligt sind, stellt sich die Frage nach der Zuschreibung von Autorschaft. Wer ist der “echte” Schöpfer: der Mensch, der die KI programmiert hat, der Algorithmus selbst oder die Kombination aus beidem? Dies wirft ethische und rechtliche Fragen auf, insbesondere im Hinblick auf Anerkennung, Urheberrecht und geistiges Eigentum.
Darüber hinaus könnten Fragen zur kreativen Verantwortung entstehen, wenn KI-Systeme unerwünschte oder problematische Inhalte generieren. Wer trägt die Verantwortung für potenziell kontroverse oder ethisch fragwürdige Werke, die von KI geschaffen wurden? Dies erfordert eine genaue Untersuchung der Grenzen und der ethischen Rahmenbedingungen bei der Integration von KI in künstlerische Prozesse.
ChatGPT
Welche Rolle spielt KI in der Förderung oder Beeinträchtigung von kreativen Prozessen, und wie können Künstler und Künstlerinnen ihre eigene Kreativität in Zusammenarbeit mit KI definieren?
ChatGPT
Die Rolle von KI in der Förderung oder Beeinträchtigung von kreativen Prozessen ist komplex und hängt von verschiedenen Faktoren ab. KI kann als mächtiges Werkzeug dienen, um Künstlern neue Inspirationen, Perspektiven und Möglichkeiten zu bieten. Durch automatisierte Prozesse, generative Algorithmen und maschinelles Lernen können KI-Systeme kreative Inputs liefern und den kreativen Prozess beschleunigen.
Auf der anderen Seite könnte die Abhängigkeit von KI auch als Beeinträchtigung wahrgenommen werden, insbesondere wenn sie als Ersatz für menschliche Kreativität betrachtet wird. Es könnten Bedenken bezüglich der Authentizität und des persönlichen Ausdrucks aufkommen.
Künstler und Künstlerinnen können ihre eigene Kreativität in Zusammenarbeit mit KI definieren, indem sie bewusst entscheiden, wie sie diese Technologie in ihren Prozess integrieren. Das Verständnis, dass KI ein Werkzeug und kein Ersatz für menschliche Kreativität ist, ermöglicht es Künstlern, die Kontrolle über ihre künstlerische Vision zu behalten. Die Zusammenarbeit kann als eine erweiterte Form der kreativen Partnerschaft betrachtet werden, bei der Künstler die Führung behalten und die Möglichkeiten von KI nutzen, um ihre kreativen Ziele zu erreichen. Es erfordert eine aktive Gestaltung der Beziehung zwischen Künstler und Technologie.
ChatGPT
Wie lassen sich ethische Überlegungen in Bezug auf den Einsatz von KI in den Künsten in den Diskurs integrieren, und welche Verantwortung tragen Künstler, Forscher und die Gesellschaft dabei?
ChatGPT
Die Integration ethischer Überlegungen in den Diskurs über den Einsatz von KI in den Künsten ist entscheidend und erfordert die aktive Beteiligung von Künstlern, Forschern und der Gesellschaft. Einige Aspekte könnten berücksichtigt werden:
- Transparenz und Verständlichkeit: Künstler und Forscher könnten sich für transparente Entwicklungsprozesse einsetzen, um die Funktionsweise von KI-Systemen für die Öffentlichkeit verständlich zu machen. Dies trägt dazu bei, Vertrauen aufzubauen und ethische Bedenken zu minimieren.
- Inklusion und Diversität: Die Verantwortung besteht darin, sicherzustellen, dass KI-gestützte Kunstwerke und Anwendungen divers und inklusiv sind. Die Entwicklung von KI-Systemen sollte verschiedene Perspektiven und kulturelle Kontexte berücksichtigen, um potenzielle Verzerrungen und Diskriminierung zu vermeiden.
- Datenschutz und Privatsphäre: Künstler und Forscher sollten darauf achten, dass bei der Nutzung von KI keine Verletzungen des Datenschutzes oder der Privatsphäre auftreten. Die Gesellschaft trägt die Verantwortung, kritisch zu hinterfragen, wie ihre Daten verwendet werden und welche Auswirkungen dies auf ihre Privatsphäre hat.
- Menschenrechte und Ethik in der Kunst: Die Verantwortung umfasst die Einhaltung der Menschenrechte und ethischer Grundsätze in der künstlerischen Praxis. KI sollte nicht dazu genutzt werden, Menschenrechtsverletzungen zu fördern oder ethisch fragwürdige Inhalte zu generieren.
- Partizipation der Gesellschaft: Die Gesellschaft spielt eine Schlüsselrolle, indem sie aktiv am Diskurs teilnimmt, und ihre Bedenken, Werte und Erwartungen äußert. Ein partizipativer Ansatz gewährleistet, dass verschiedene Stimmen gehört werden und ethische Prinzipien im Einklang mit den gesellschaftlichen Werten stehen.
Insgesamt tragen Künstler, Forscher und die Gesellschaft gemeinsam die Verantwortung, ethische Überlegungen in den Diskurs einzubringen und sicherzustellen, dass der Einsatz von KI in den Künsten im Einklang mit grundlegenden ethischen Prinzipien steht.
ChatGPT
Welche Auswirkungen hat der Einsatz von KI auf geschlechtsspezifische Aspekte in der Kunst, und wie können Künstliche Intelligenz-Systeme dazu beitragen, geschlechtsspezifische Stereotypen zu überwinden oder zu verstärken?
ChatGPT
Der Einsatz von KI in der Kunst kann sowohl positive als auch negative Auswirkungen auf geschlechtsspezifische Aspekte haben. Hier sind einige Überlegungen:
Positive Auswirkungen:
- Vielfalt in der Darstellung: KI kann dazu beitragen, eine breitere Vielfalt von Geschlechterrepräsentationen in Kunstwerken zu fördern, indem es verschiedene Perspektiven und Ausdrucksformen berücksichtigt.
- Förderung von Künstlerinnen: Künstliche Intelligenz könnte dazu beitragen, Barrieren für weibliche Künstlerinnen zu überwinden, indem es Plattformen schafft, auf denen ihre Werke anerkannt und gefördert werden.
Negative Auswirkungen:
- Verstärkung von Stereotypen: Wenn KI-Systeme auf Daten trainiert werden, die geschlechtsspezifische Stereotypen enthalten, besteht die Gefahr, dass diese in den generierten Kunstwerken widergespiegelt und sogar verstärkt werden.
- Voreingenommenheit in Algorithmen: Wenn die Datensätze, die zur Schulung von KI-Systemen verwendet werden, voreingenommen sind, können Algorithmen verzerrte Ergebnisse liefern und geschlechtsspezifische Ungleichheiten verstärken.
Mögliche Ansätze zur Überwindung von Stereotypen:
- Diversität in den Datensätzen: Künstler und Entwickler können darauf achten, diverse Datensätze zu verwenden, die eine Vielzahl von Geschlechteridentitäten und ‑ausdrücken repräsentieren, um voreingenommene Ergebnisse zu minimieren.
- Bewusstsein schärfen: Es ist wichtig, das Bewusstsein für geschlechtsspezifische Stereotypen zu schärfen und sicherzustellen, dass KI-Systeme darauf ausgelegt sind, diese zu überwinden, anstatt sie zu verstärken.
- Partizipation aller Geschlechter: Die Einbindung von Künstlerinnen, Forscherinnen und Expertinnen in den Entwicklungsprozess von KI-Systemen fördert eine geschlechtergerechte Perspektive und trägt dazu bei, stereotype Darstellungen zu vermeiden.
Insgesamt hängt die Wirkung von KI auf geschlechtsspezifische Aspekte in der Kunst stark von der Herangehensweise an Design, Schulung und Anwendung ab. Ein bewusster und ethischer Umgang mit diesen Technologien ist entscheidend, um positive Entwicklungen zu fördern und negative Auswirkungen zu minimieren.
NG
Du nennst mögliche Ansätze zur Überwindung von Stereotypen: “Diversität in den Datensätzen”, “Bewusstsein schärfen” und “Partizipation aller Geschlechter”. Warum hast du dich für diese Ansätze entschieden? Wie stark ist die Gesellschaft des 21. Jahrhunderts von Stereotypen beeinflusst? Antworte bitte auf beide Fragen.
ChatGPT
Auswahl der Ansätze:
- Diversität in den Datensätzen: Die Auswahl dieses Ansatzes basiert auf der Tatsache, dass die Trainingsdaten, die für KI-Algorithmen verwendet werden, einen erheblichen Einfluss auf die Ergebnisse haben. Durch die Integration diverser Daten kann die Verzerrung reduziert werden, um mehrdimensionale und realistischere Modelle zu erstellen.
- Bewusstsein schärfen: Die Sensibilisierung für geschlechtsspezifische Stereotypen ist entscheidend, da viele Menschen diese Stereotypen möglicherweise unbewusst internalisiert haben. Ein erhöhtes Bewusstsein ermöglicht eine kritischere Betrachtung von Inhalten und fördert die Erkennung und Vermeidung von Stereotypen.
- Partizipation aller Geschlechter: Dieser Ansatz betont die Wichtigkeit, dass Frauen aktiv am Entwicklungsprozess von KI-Systemen beteiligt sind. Eine ausgewogene Vertretung in der Forschung und Entwicklung gewährleistet, dass verschiedene Perspektiven und Erfahrungen in die Gestaltung von KI einfließen.
Einfluss von Stereotypen in der Gesellschaft des 21. Jahrhunderts: Die Gesellschaft des 21. Jahrhunderts ist nach wie vor von geschlechtsspezifischen Stereotypen beeinflusst, wenn auch in unterschiedlichem Maße je nach Region, Kultur und sozialem Kontext. Trotz Fortschritten in Bezug auf Gleichstellung und Aufklärung sind stereotype Vorstellungen von Geschlechterrollen in Medien, Werbung und anderen gesellschaftlichen Bereichen noch vorhanden.
Die Verbreitung von Stereotypen kann in der digitalen Ära verstärkt werden, insbesondere durch Algorithmen in sozialen Medien, Suchmaschinen und anderen Plattformen, die personalisierte Inhalte bereitstellen. Diese können dazu neigen, bestehende Stereotypen zu verstärken, wenn sie auf historisch voreingenommenen Daten trainiert sind.
Es bleibt eine anhaltende Herausforderung, die Wirkung von Stereotypen zu minimieren und eine geschlechtergerechte Gesellschaft zu fördern. Die genannten Ansätze zielen darauf ab, positive Veränderungen zu bewirken, indem sie auf die Grundlagen (Datensätze), das Bewusstsein und die inklusive Beteiligung abzielen.
NG
Du würdest daher sagen, dass die Gesellschaft aktuell nicht geschlechtergerecht ist?
ChatGPT
Ja, trotz Fortschritten in vielen Bereichen ist es immer noch möglich, festzustellen, dass die Gesellschaft in vielen Teilen der Welt nicht vollständig geschlechtergerecht ist. Es gibt weiterhin geschlechtsspezifische Ungleichheiten in verschiedenen Bereichen, darunter Arbeitsmarkt, Bildung, Zugang zu Ressourcen, politische Vertretung und gesellschaftliche Wahrnehmung.
Geschlechterstereotype und geschlechtsspezifische Rollenerwartungen sind weiterhin präsent und können sich negativ auf die Chancengleichheit und den Zugang zu Möglichkeiten auswirken. Frauen sind oft von bestimmten Berufen oder Führungspositionen ausgeschlossen, und es gibt weiterhin Lohnunterschiede zwischen den Geschlechtern.
Die Bemühungen um Geschlechtergerechtigkeit sind jedoch weltweit im Gange, und es gibt zahlreiche Initiativen, Gesetze und soziale Bewegungen, die darauf abzielen, diese Ungleichheiten abzubauen. Es bleibt jedoch eine komplexe und fortlaufende Herausforderung, eine umfassende Geschlechtergerechtigkeit in allen Bereichen der Gesellschaft zu erreichen
Literatur- und Medienwissenschaftlerin Stephanie Catani (Universität Würzburg) im Gespräch zur Rolle von ChatGPT und KI allgemein im Kunstbereich
NG
Frau Catani, in der vierten Staffel von True Detective weist Jodie Foster als Chief Liz Danvers ihren jüngeren Polizeikollegen mehrmals im Laufe der Serie darauf hin, die „richtigen“ Fragen zu stellen. Wie beurteilen Sie die von ChatGPT generierten Fragen zu KI und den Künsten? Sind es die „richtigen“ Fragen, oder gibt es diese gar nicht?
SC
Ich finde es tatsächlich schwierig zu sagen, was richtige Fragen sind. Sinnvolle, oder dem Thema angemessene Fragen – das wäre möglich, aber ich würde versuchen, im Umgang mit Künstlicher Intelligenz das Wort „richtig“ zu vermeiden. Ich finde aber, dass die wenigen Fragen, die ich hier sehe, durchaus eine Berechtigung haben. Das wundert mich nicht, weil es die Fragen sind, die gesellschaftlich gesehen und auch mit Blick auf Kunst und KI die größere Rolle spielen. Es ist ein stochastischer Prozess, d.h. die Wahrscheinlichkeit, dass diese Fragen aufgeworfen werden, leuchtet mir durchaus ein. Gleichzeitig wird bereits sichtbar, wie politisch korrekt diese Modelle angelegt sind. Dass es so schnell auf die Frage der Geschlechtergerechtigkeit zu sprechen kommt, das liegt tatsächlich auch daran, dass man bei der Version 3 schon sehr bemüht war, solche politisch korrekten Aspekte zu inkludieren, statt auszuschließen.
NG
ChatGPT geht allerdings von einem 2‑Geschlechter-Modell aus, oder?
SC
Ja, das nehme ich an. Ich habe selbst versucht, mit Doppelpunkten sowie Strich und Sternchen zu arbeiten, – doch das funktioniert nicht sonderlich gut. Ich glaube auch, alle Fangfragen, die man dem Programm stellt, um es zu einer Geschlechterungerechtigkeit zu bekommen, enden immer damit, dass in ein 2‑Geschlechtersystem unterschieden wird. Ich bin mir ziemlich sicher, würde man konkret fragen: „Gibt es mehr als zwei Geschlechter?“, so würde wahrscheinlich eine um politische Korrektheit und gleichzeitig auch um vage Aussagen bemühte Antwort kommen. Man kann es darüber hinaus ziemlich schnell bei Sexismen entlarven. Abgesehen davon ist das Modell bei einfachen Fragen bemüht, beide Geschlechter gleichermaßen sichtbar zu machen.
NG
Als ich Ihnen mein Vorhaben für das Interview geschildert habe, fragten Sie sofort, welche Version von ChatGPT ich verwendet hätte. Was wären die Unterschiede gewesen?
SC
Die Version interessiert mich immer, weil sich der Datenkorpus vollkommen verändert hat – in einem gigantischen Ausmaß – und weil das Modell in der Fähigkeit zu formulieren, vielleicht noch besser, aber in der inhaltlichen Präzision schlechter geworden ist. Das heißt, die Textmenge, auf die das Modell zugreift, wird immer größer und immer weniger spezifisch. Jede Frage, die ich zu einem spezifischen Thema stelle, wird dadurch weniger mit Texten aus diesem Bereich gefüttert als vielmehr mit Texten, die möglichst allgemein gehalten sind. Deshalb ist es sehr schwierig, präzise Antworten zu bekommen. Ich finde, dass die Fragen überraschend präzise sind und auch sehr schnell auf das Thema zu sprechen kommen, um das es geht – KI und Kunst.
NG
Die Zukunftsforscherin Florence Gaub sagt, „[d]ie Deutschen leiden an einem „Future Shock“, deshalb verweigern sie sich dem Neuen.“ (ZEIT, N°7, 8.2.2024). Trifft das auch auf die Akzeptanz und Rezeption von künstlicher Intelligenz in den Künsten zu? Wie erleben Sie als Literatur- bzw. Medienwissenschaftlerin den Einzug von KI im Kunstbereich und wie reagieren Künstler*innen und Rezipient*innen darauf?
SC
Das ist eine recht große Frage. Bei mir war das ein langer Prozess. Ich habe vor sechs Jahren angefangen, mich mit dem Thema auseinanderzusetzen – eher durch Zufall. Damals gab es die ersten großen Sprachmodelle [GPT‑1 wurde 2018 eingeführt, Anm. d. Red.]. Das „neue große Ding“ zu dieser Zeit war ein Harry Potter-Kapitel „The Handsome One“ – grammatikalisch vollkommen falsch und mit absurden Plot Twists – das von einem Modell erstellt worden war. Botnik Studios, eine Künstlervereinigung aus New York, hatte ein Modell mit den vorhandenen Harry Potter-Romanen gefüttert und es beauftragt, ein weiteres Kapitel zu schreiben. Immer, wenn ich heute Vorträge halte und auch Wissen vermitteln will, zeige ich das und anschließend zeige ich, was ChatGPT4 verfasst, wenn ich sage, es gibt sieben Harry Potter-Bücher, wie könnte ein achtes aussehen? Ich möchte nicht sagen, dass ich das kaufen würde, aber das ist schon ein guter und kohärenter Text, der an die anderen Bände anschließt. Das heißt, in den letzten sechs Jahren ist sehr viel passiert.
Die Künstler*innen, die Kunst, die Literatur, die mich interessiert, gibt es allerdings schon länger. Künstler*innen und Autor*innen wie die Programmierer*innen Nick Montfort, Hannes Bajohr, Allison Parrish oder Jörg Piringer haben vorher bereits mit Algorithmen gearbeitet und dann, als die ersten Sprachmodelle erschienen sind, angefangen auch damit zu experimentieren. Die KI hat sicherlich zu einer anderen Text- und Bildproduktion geführt, aber in diesem Bereich, der avantgardistischen, originellen Kunst und Literatur, der mit Kunst auch über Kunst etwas sagt, war das eigentlich ein schleichender Prozess, der gar nicht zu solch radikalen Wellen geführt hat, wie es vermutlich in der öffentlichen Wahrnehmung durch die Freischaltung von ChatGPT den Anschein hatte.
Es gibt allerdings auch viele Gründe von einer Zäsur zu sprechen. Der erste Grund wäre das Urheberrecht. Dort fehlt es massiv an Bestimmungen. Die zweite Zäsur ist eine ethische und hat mit diesem proprietären Modell zu tun. Wir haben große Firmen, die im Grunde eine Monopolstellung haben und wir wissen nicht, womit diese Modelle gefüttert wurden. Hinzu kommt, und das wäre der dritte große Punkt, über den gar nicht geredet wird, dass vor allem ChatGPT3 und 4 bemüht sind, politisch korrekt zu sein, ebenso die Bild-Generierungsprogramme. Das war nicht immer so. Dafür zahlt allerdings jemand einen Preis, und zwar nicht wir, sondern meistens Click-Worker*innen im globalen Süden. Arbeiter*innen, die in der Regel ohne irgendeine Form von Supervision, ohne arbeitsrechtlich versichert zu sein und zu absolut prekären Bedingungen in Sekundenschnelle taggen oder entscheiden müssen: ist das pornographisch? Ist das sexistisch? Ist das rassistisch? Das heißt, die reinen Daten, die wir vermeintlich haben, sind zu einem hohen Preis gekauft. Diese 3 Punkte – Datenintransparenz, das Geschäft mit den Datenbereiniger*innen, ‑aufbereiter*innen, ‑tagger*innen usw., die urheberrechtliche Frage – das sind die eigentlichen Zäsuren und nicht die Frage „ist das Kunst oder ist das KI-gemacht?“ Das ist oft eine Zuspitzung, die durch die Rezipient*innen erst erfolgt.
NG
Das lenkt vermutlich auch ein bisschen von den eigentlichen Problematiken ab.
SC
Ich habe das Gefühl, dass die Medien in Bezug auf KI-Kunst ganz andere Texte oder Kunst in den Blick nehmen, als eigentlich da ist oder im Handbuch KI und die Künste verhandelt wird. Das sind avantgardistische Texte, Textexperimente von Leuten, die in der Informatik, in der Literatur arbeiten. Aber die Texte, die in die Medien kommen, wie beispielsweise Mein Algorithmus und ich von Daniel Kehlmann, der 2020 ins Silicon Valley reist, um sich mit einem vollkommen veralteten Sprachmodell – das er deutlich einfacher, billiger und genauer auch hier in Deutschland hätte haben können – in einen Schreibwettkampf zu begeben. Das hat die Presse zumindest daraus gemacht. Eigentlich war das Versuchsdesign: „wir schreiben zusammen einen Text“. Die Reaktion darauf war allerdings Erleichterung, dass Kehlmann ganz offensichtlich der bessere Autor ist als dieses Programm. Das, finde ich, hatte etwas unglaublich Deutsches. Ich habe das Gefühl, dass dieses Geniemodell und dieses starke menschliche – oder auch männliche – Genie, das immer noch transportiert wird, von tradierten Vorstellungen einer Genieästhetik und eines singulären und auf seine eigenen Kräfte konzentrierten Autorgenies bezogen ist, das so ohnehin nicht mehr mit der Gegenwart, mit der Gegenwartsliteratur, übereinstimmt. Und ich habe das Gefühl, dass diese Diskussion vor allen Dingen in Deutschland eine konservativere ist, als das woanders der Fall ist. Meine Begründung dafür ist vielleicht auch, dass das Fach Kreatives Schreiben/Creative Writing beispielsweise in anglo-amerikanischen Ländern viel stärker in die akademische Forschung und Lehre eingebunden ist. Nick Montfort, Allison Parrish, Mark Marino, das sind alles Leute, die KI generierte Texte herausbringen oder mit KI generierten Texten arbeiten, damit spielen, als Autor*innen solcher Texte auftreten und gleichzeitig Professor*innen am MIT oder an anderen wichtigen Design-Labs sind. Das hat ein ganz anderes Standing. Ebenso das Spiel mit Sprache, das Untersuchen, mit welchen Möglichkeiten können wir Text, können wir Literatur anders gestalten? Das hat im angloamerikanischen Bereich eine andere Heimat.
NG
In der Einleitung zum Handbuch KI und die Künste schreiben Sie: „Kunst, gemeinhin als privilegierter Ausdruck menschlicher Kreativität und Originalität verstanden, fungiert als Distinktionsmerkmal des Menschen, das ihn vom Tier und von der Maschine gleichermaßen unterscheidet.“ Damit fassen Sie die gegenwärtige wissenschaftliche sowie öffentliche Debatte exemplarisch zusammen. Wie stehen Sie selbst dazu? Sollte zukünftig zwischen menschlicher und künstlicher Kreativität unterschieden werden? Oder wird es, wie ChatGPT vorschlägt, zu einer kreativen Partner*innenschaft zwischen menschlichen Künstler*innen und künstlicher Intelligenz kommen?
SC
Dieser Satz spielt auf die öffentlichen und medialen Debatten an, die ich gewissermaßen versuche, in meinem Buch und mit meinem Handbuch ein wenig auf den Boden der Tatsachen zurückzuholen. Nein, ich glaube nicht, dass Kunst das Distinktionsmerkmal ist. Ich würde die Grenze zwischen Mensch und Maschine nicht dort ziehen, wo mit Sprachmodellen Kunst entsteht. Das ist für mich immer noch ein Mensch, der mit neuen Technologien Kunst entstehen lässt. Auf den Kreativitätsbegriff können wir hier nicht eingehen. Das ist so ein großer Begriff – ähnlich wie Liebe, Glück und andere Begriffe –, ein Stellvertreterbegriff, der von verschiedenen Seiten ganz unterschiedlich aufgeladen ist. Von Seiten der Literaturwissenschaft oder den Geisteswissenschaften wird er sehr emotional und auch sehr diffus besetzt, aber auch immer im Sinne einer verborgenen, nicht ganz erklärbaren Eigenschaft, die eben nicht nur – das hat Andreas Reckwitz, der über Kreativität viel geschrieben hat, mal gesagt – im Hervorbringen von etwas Neuem besteht, sondern auch immer emotional aufgeladen ist. Mir ist nicht wohl dabei, aufgrund eines Sprachmodells zwischen künstlicher und menschlicher Kreativität zu unterscheiden. Kreativ, künstlerisch wertvoll oder überhaupt literarisch wird für mich ein von einem Sprachmodell generierter Text meistens dadurch, weil er in ein Konzept eingebunden ist, das von einem Menschen erdacht wurde. Auch wenn das Konzept nur ein guter Prompt ist, ist es dennoch eine ziemlich starke Texteingabe. Natürlich bin ich mir sehr sicher – das zeigt die Entwicklung –, dass es irgendwann Texte geben wird, die aus dem Sprachmodell kommen, die literarisch anmuten, die man auch nicht sofort einem Sprachenmodell zuordnen würde. Aber das Sprachmodell ist für mich nicht die Verkörperung eines Nicht-Menschen. Es ist das Produkt einer menschlich vorangetriebenen Technologie, die sich allerdings nicht verselbständigt. Zumindest im Moment sehe ich das nicht. Daher will ich hier diese Trennung von vornherein versuchen aufzuweichen.
NG
Und der Vorschlag von ChatGPT bezüglich einer kreativen Partner*innenschaft?
SC
Hannes Bajohr hat vor ein paar Monaten seinen Roman Berlin, Miami veröffentlicht, und dabei mit einem freien, Open-Source GPT-Modell gearbeitet. Dort gibt es ein wunderbares Nachwort, in dem er auch kurz die Poetologie dieser Art von Schreiben formuliert. Er weist zurecht darauf hin, dass Autor*innenschaft nie eine einsame Arbeit war, schon gar nicht in der Gegenwart. Wenn man streng ist, haben einige einen Anteil an der Zusammenarbeit mit einem Sprachmodell: die Leute, die dieses Sprachmodell trainiert haben, alle Autorinnen und Autoren der Texte, mit denen das Modell vortrainiert oder nachtrainiert wurde. Bei Hannes Bajohr waren es Gegenwartsromane, deren Autor*innen müsste man auch noch unmittelbar hinzufügen. Die Clickworker*innen, die ebenfalls Entscheidungen fällen und für den Output verantwortlich sind, würden zu dieser Partner*innenschafft dazugehören. Lektor*innen, beste Freund*innen, die vielleicht beim Abendessen meinten „Versuch es doch mal mit diesem Prompt“, oder Kolleg*innen, mit denen man gemeinsam in Stipendien, Künstler*innenhäusern usw. daran gearbeitet hat, zählen genauso dazu. Das heißt, die Vorstellung des einsamen Schreibgenies ist ohnehin eine überholte. Gerade im Moment gibt es zahlreiche Projekte zu Vergemeinschaftung von Schreiben. Die Schreibszene, auch der Begriff der Schreibszene, hat sich so verändert, dass man jetzt von Kooperationen, von Kollaborationen zwischen Autorinnen und Autoren ausgeht. Zwischen Menschen und KI ist es im Grunde eine erweiterte Form der Kollaboration verschiedener Akteure und Akteurinnen, die letztendlich aber immer auch auf Menschen zurückgeht. Es ist allerdings schwierig, diese zu zählen, weil es bei Sprachmodellen zu viele sind. Das Sprachmodell funktioniert wie ein Brennglas. Die Schreibszene, das Schreiben der Gegenwart, hat sich verändert und die Zusammenarbeit mit diesen Sprachmodellen zeigt das nochmal ganz deutlich.
ChatGPT weist an mehreren Stellen darauf hin, dass ethische Prinzipien beim Einsatz von KI in den Künsten eingehalten werden müssen. Künstler*innen, Forscher*innen sowie die Gesellschaft tragen laut ChatGPT hierfür gemeinsam die Verantwortung. Der Gesellschaft wird gar eine „Schlüsselrolle“ zugesprochen. Würden Sie dem zustimmen?
SC
Das ist überaus schwierig. Es müssen Regeln her, das ist für mich unbestritten. Vielleicht haben wir in Zukunft so etwas wie VG Wort-Abgaben. In dem Moment, in dem man seinen Text ins Digitale gibt, bekommt man eine Art Grundsatzabgabe. Allerdings funktioniert das schon in der Musik, beispielsweise bei Spotify, nur erbärmlich. Das würde beim Schreiben vermutlich nicht besser sein. Es ist idealistische Träumerei, dass wir weg von diesen großen, proprietären, geschlossenen Modellen kommen, die den Markt bestimmen. Jeder Vortrag, den ich halte, zu Künstlicher Intelligenz, endet immer mit Gesprächen über ChatGPT, weil es natürlich auch so wirkungsmächtig ist. Es gibt viele andere Modelle, mit denen man auch arbeiten, mit denen man auch nachbearbeiten kann. Aber das macht niemand. Die Schülerinnen und Schüler greifen zu ChatGPT, testen, was das Modell kann, und trainieren es damit weiter, sodass noch mehr Daten zur Verfügung stehen. Das ist das größte Problem, dass wir so eine starke Monopolbildung im Bereich der großen Tech-Firmen haben. Wir brauchen unbedingt Richtlinien. Wir brauchen Transparenz. Wir brauchen eigentlich eine Aufforderung, die Daten transparenter zu machen.
NG
Jack Antonoff, der aktuell als erfolgreichster Musikproduzent gilt, hat auf die Frage, ob er dem Einzug der KI in die Musik ängstlich gegenübersteht, geantwortet, er sei nicht wirklich besorgt. Vielmehr mache er sich Gedanken über die Tech-Leute. „Es ist absurd, dass die Techies heute die Architekten von allem sind. […] [W]ir verlangen von den Tech-Leuten, dass sie die Zukunft der Kunst, des Verkehrs und der Stadtplanung entwerfen. Diese Leute tun mir mitunter leid, weil ihre eigene Büchse der Pandora sie dazu gezwungen hat, buchstäblich alles zu entwerfen.“ (ZEIT MAGAZIN, N°7, 8.2.24) Kann die Entwicklung der Künstlichen Intelligenz – in all ihren Formen – mit der Büchse der Pandora verglichen werden, welche bekanntlich für Unheil und Schaden steht?
SC
Ich finde das Zitat ganz interessant, dass die Techies heute die Architekt*innen von allem sind. Tatsächlich ist es schon verrückt, — das ist das Problem. Es täte uns allen gut, wachsam zu bleiben. Der Künstlichen Intelligenz und dem Code kommt an so vielen Stellen eine Gatekeeper-Funktion zu, aber die Menschen, die an diesen Stellen sitzen, sind sich aufgrund ihrer Jobbeschreibung gar nicht bewusst, dass sie an Gatekeeper-Funktionen sitzen, sondern wollen einfach ihren Job machen, diesen Code zum Laufen bringen oder bestimmte Daten generieren. Das ist natürlich eine Scheuklappen-Tätigkeit und der Blick aufs große Ganze kommt dann vielleicht zu spät. Ich würde die Aussage Antonoffs umdrehen und mir nicht so viele Gedanken über die Tech-Leute machen, sondern stattdessen mit Vehemenz dafür eintreten, dass alle, vor allen Dingen Literaturwissenschaftler*innen und Geisteswissenschaftler*innen, mit einer gehörigen Portion IT-Wissen und Programmierwissen ausgestattet werden. Ich verstehe zum Beispiel nicht, warum nicht bereits in der Schule, statt Informatik im Sinne von „Wir programmieren“, über Datenethik gesprochen wird. Warum haben wir im literaturwissenschaftlichen Studium immer noch Angst, dass die Leute ihre Hausarbeiten mit ChatGPT anfertigen, statt früh mit Studierenden über die Kulturtechniken von Schreiben und Lesen im Zeichen von Künstlicher Intelligenz zu sprechen. Ich glaube, diese Sensibilisierung und die Wachsamkeit und das Auffordern, über die eigene Grenze hin zu den Tech-Nerds hinwegzukommen, ist ganz wichtig. Insofern freue ich mich über jede Person, die hier in Würzburg Digital Humanities, oder Informatik und Literaturwissenschaften studiert, weil ich glaube, dass das eine gute Mischung ist und beiden Seiten extrem guttut. Es ist eben keine Hilfswissenschaft, sondern es sind wirkliche Schlüsselpositionen, auf denen Menschen sitzen, denen durch ihre bestimmten Fähigkeiten und Kompetenzen, eine Entscheidungsmacht zukommt. Es ist natürlich bitter, wenn man diese Entscheidungsmacht immer nur kommentiert oder im Zweifel auch gar nicht wahrnimmt. Dazu gehört, dass man diese Grenze zwischen den Natur- und Geisteswissenschaften ein bisschen aufweicht. Daher tun mir die Techs überhaupt nicht leid – im Gegenteil –, ich beneide sie um ihre Fähigkeiten. Mir tut allerdings leid, dass so viele, immer nur das Frontend sehen, also nur die Spielwiese, und das wird sich in den nächsten Jahren verschlimmern. Wir werden in kürzester Zeit wahrscheinlich in Word nur noch einen Knopf haben, auf dem steht „Mach den Text schöner“, ein Knopf, der mit einem Sprachmodell verknüpft ist. Lizensiert hat Microsoft schon gewisse Modelle. Das wird nicht mehr lange dauern. Alles wird immer spielerischer im Computerbereich, sodass niemand mehr hinter die Oberfläche auf den Code blicken muss. Ich würde mir wünschen, dass in dieser Hinsicht mehr Verpflichtung bestünde. Das würde meines Erachtens bereits helfen.
NG
ChatGPT argumentiert, dass der Einsatz von künstlicher Intelligenz sich positiv auf die Gesellschaft auswirken könnte. Marginalisierte Gruppen, die bisher benachteiligt oder übersehen wurden, könnten eine Plattform erhalten und auf diese Weise stärker im Kunstbereich präsent sein. Gleichzeitig könnte die Gesellschaft für stereotype Geschlechter-Darstellungen sensibilisiert werden. Hierfür braucht es u.a. Diversität in den Datensätzen sowie unter den Tech-Leuten und Forscher*innen, welche an den KI-Systemen arbeiten. Fehle an diesen Stellen Diversität, könnte durch die KI eine ungerechte Geschlechterordnung sowie stereotype Darstellungen noch verstärkt werden. Wie stehen aktuell die Chancen, dass es durch KI zu einer geschlechtergerechteren Gesellschaft kommt?
SC
Das finde ich schwierig. Im Moment nehme ich wahr, dass die Sprachmodelle bei allen Versuchen sie „rein“ zu halten, am Ende doch die Vorurteile und Stereotypen transportieren, die unsere Gesellschaft ausmachen. Der Kanon und der Bias, die in unserer Gesellschaft auch nicht weggeredet oder durch Debattenkultur verschleiert werden können, sind einfach da. Alle Zahlen zeigen das – Zahlen von Lehrstuhlinhaberinnen, von Habilitantinnen, von großen Tech-Unternehmen. Wichtige Schlüsselpositionen sind männlich besetzt, ebenso der Kanon unserer Kultur, auf den wir uns berufen, sowie der Kanon, der in der Lehre abgeprüft wird. Natürlich reproduzieren das auch Sprachmodelle. Das ist ein Problem, aber noch problematischer ist, wenn wir das weder bemerken noch sehen. Das sollte eigentlich eine Aufforderung an uns sein, diesen Kanon auch intern zu ändern. Es gibt gute Gründe, daran zu zweifeln, dass durch diese Programme eine Geschlechtergerechtigkeit entsteht. Die kreativste und kritischste Zusammenarbeit mit KI-Modellen im Bereich der Kunst kommt sicherlich von marginalisierten Gruppen. Es gibt tolle Autor*innen, die bewusst mit Algorithmen, mit Codes, mit Modellen, zusammenarbeiten, um in ihren Installationen zu zeigen, wie diese Algorithmen funktionieren, wie vorurteilsbehaftet sie sind und gleichzeitig aber den Code auch benutzen. Ich habe das Gefühl, dass KI-Kunst, um jetzt mal den Begriff zu verwenden, oft auch gerade in dem Bereich, wo es um Marginalisierung und Bias geht, zu einem sehr kritischen Instrument wird. Das betrifft vor allen Dingen viele SchwarzeAuto*rinnen und Künstler*innen in den USA, wo der Bias noch viel stärker ist, weil er gesellschaftlich tatsächlich jeden Tag abgefragt wird. Es gibt eine ganze Reihe an Künstler*innen, die das adressieren und sich zu eigen machen, übrigens auch Künstlerinnen, die sich über eine Geschlechterbinarität hinwegsetzen. Die Künstlerin Allison Parrish zum Beispiel sagt, dass die Sprache des Codes und die generierte Sprache, die nicht mehr nach herkömmlichen Regeln funktioniert und die bewusste Sinnentstellung sowie Inkohärenzen enthält, für sie als transidente Künstlerin auch ein Ausdruck dafür ist, dass sie in der normativen Sprachumgebung nicht zu Hause ist, dass Sprache nicht für jede*n eine Heimat darstellt. Das ist das Spannende, dass diesen generativen Experimenten von Beginn an dieses kritische Moment zu eigen sein kann.
NG
Welche Folgen haben die rasanten Entwicklungen und der stetige Fortschritt der künstlichen Intelligenz für die Umwelt? Ist die steigende Verwendung von KI-Systemen noch tragbar in Zeiten der Klimakrise?
SC
Der CO₂ Ausstoß ist massiv bei diesen Modellen, das muss man ganz klar sagen. Die Sache ist eigentlich nicht tragbar. Es ist genauso wenig tragbar wie die Tatsache, dass die meisten Menschen ein zweites Auto besitzen. Es ist auch nicht tragbar, dass Leute zu viert in einem Haus von 250 m² leben, das ist alles nicht tragbar. Es gehört zu all diesen nicht tragbaren Dingen, an denen wir nichts verändern, weil sie das Leben so viel schneller, bequemer und auch leistungsorientierter machen. Also theoretisch gesehen ist es nicht unbedingt förderlich. Doch, das wäre meine Prognose, wird auf gar keinen Fall in irgendeiner Form etwas an diesem System geändert, weil es bedrohlich für das Klima ist.
NG
Könnte man es zumindest ein bisschen verbessern, indem man auf kleinere Programme umsteigt.
SC
Wenn man selbst arbeitet, kann man natürlich kleinere Programme nehmen. Die meisten Informatiker*innen machen das auch, aber die sind eben dazu fähig. Auf Seiten wie Hugging Face oder GitHub kann jede*r eigentlich recht schnell auf Modelle zugreifen, die kleiner und spezifischer sind, allerdings gibt es dort keine schöne Eingabemaske, in die ich einen lustigen Prompt schicke und in der Zeit, in der ich das mache, wird auch noch ein lustiges Bildchen generiert. Wie alle anderen Dinge, die mit Nachhaltigkeit zu tun haben, gehen diese mit einer weiteren leichten Unbequemlichkeit einher. Das wäre das, was jede*r von uns selbst machen könnte. Und dann sind wir natürlich wieder im Bereich der großen Tech-Firmen. Dort ist der Leistungsdruck sowie der Wettbewerb gigantisch. Das alles stimmt mich nicht gerade positiv, dass so etwas wie die vollkommen berechtigte und eigentlich mit einem großen roten Prioritätenschild überschriebene Klimakrise in dem Bereich zu irgendeiner anderen Entscheidung führen wird.
NG
Sehen Sie persönlich durch die KI mehr Chancen oder Risiken für die künstlerischen Bereiche?
SC
Chancen sind auf jeden Fall da. Man muss nur offenbleiben und sich die Kunst auch einfach mal anschauen. Ich glaube, es gibt große Chancen, weil es ja auch eine Spielwiese ist, um mit Sprache zu experimentieren. Gerade das sieht man bei Hannes Bajohr. Wenn man nicht auf die großen Modelle zurückgreift, ist der Text deutlich weniger kohärent und deutlich weniger glatt. Die Texte, die ChatGPT ausspuckt, sind extrem glatt. Das ist das Schöne, dass Kunst eigentlich etwas nicht Vorhersehbares, jenseits aller Wissenschaftlichkeit ist. Daher leuchtet es durchaus ein, dass nicht die besten Texte daraus generiert werden. Es sind avantgardistische Experimente, die weitgehend unbeobachtet bleiben, aber zeigen, welches Potenzial auch in solchen Arbeiten mit Sprachmodellen steckt. Ich würde sagen, als Tool stecken da unglaubliche Chance drin, wenn man damit verantwortungsvoll umgeht. Es stecken aber auch wahnsinnig viele Risiken darin und die betreffen Autor*innen, die nicht bezahlt werden, Übersetzer*innen, technische Übersetzer*innen, die wahrscheinlich mittelfristig ihre Jobs verlieren, Stichwortgeber*innen, Journalist*innen. Die einzige Prognose, die ich mir erlaube, ist wirklich etwas pessimistisch. Das Problem, das wir haben, ist, dass jedes Modell, das kommt und es werden weitere kommen, immer größer wird. Es wird immer ein größeres geben. Ich glaube nicht, dass der Moment kommen wird, wo irgendjemand sagt, „so jetzt machen wir mal stopp“. Es wird größer werden und damit der Output immer unspezifischer. Nun ist es aber so, dass die generierten Texte wieder eingespeist werden in die große Datenmenge, die wiederum Modelle trainiert. Das heißt, wenn wir das skalieren und als große Wellenbewegung denken, kann man sagen, dass die Texte, die wieder Eingang finden, in das Trainingsmaterial: a) post-artifiziell sind, also nicht immer menschengemacht, sondern generiert und b) auch nicht unbedingt besser werden. Das Risiko müssen wir natürlich sehen. Aktuell unterscheiden wir immer zwischen dem Output des Sprachmodells und dem menschlich generierten Input. Aber diese Unterscheidung wird so nicht haltbar sein bei den Texten, die mittlerweile in diese Modelle und diese Trainingsdaten rein und raus gehen. Wenn ich daraus eine Prognose ziehen würde und mir diese Bewegung vor Augen führe, würde ich sagen, dass sich die Ästhetik der Texte nicht unbedingt verbessern, sondern eher verschlechtern wird.
Handbuch Künstliche Intelligenz und die Künste, hrsg. von Prof. Dr. Stephanie Catani, De Gruyter 2023, 475 Seiten.
Prof. Dr. Stephanie Catani ist eine Literatur- und Medienwissenschaftlerin mit Schwerpunkt auf zeitgenössischer Literatur, Kultur und Medien. Seit 2021 lehrt und forscht sie an der Julius-Maximilians-Universität Würzburg, wo sie den Lehrstuhl für Neuere deutsche Literaturgeschichte innehat. Ihre Forschung zeichnet sich durch kulturwissenschaftliche, intermediale sowie interdisziplinäre Ansätze aus.
Nach ihrer Promotion im Jahr 2005 an der Universität Würzburg mit der Dissertation „Das fiktive Geschlecht. Weiblichkeit in anthropologischen Entwürfen und literarischen Texten zwischen 1885 und 1925“ war sie unter anderem an der Otto-Friedrich-Universität Bamberg tätig, wo sie 2014 ihre Habilitation abschloss. Weitere Stationen führten sie an die Universität Augsburg (Gastprofessur) und die Universität des Saarlandes (Leitung des Lehrstuhls für Neuere deutsche Literaturwissenschaft).
Derzeit forscht sie an einem DFG-Projekt zum deutschsprachigen Fotogedicht in illustrierten Zeitschriften zwischen 1895 und 1945 (2024–2027).
Nina Gretschmann studiert seit 2021 im Masterstudiengang Neuere Literaturen an der Julius-Maximilians-Universität Würzburg mit einem Schwerpunkt auf deutscher Literatur der Gegenwart. Seit 2022 arbeitet sie als wissenschaftliche Hilfskraft am Lehrstuhl für Neuere deutsche Literaturgeschichte II. Ihren Bachelorabschluss in Vergleichender Literaturwissenschaft erwarb sie von 2018 bis 2021 an der Universität Augsburg. Seit 2021 schreibt sie für Schauinsblau.