THIS IS NOT

Page 1

This is Not

Volkssport Deepfake - Erste Überlegungen zum aktuellen Erfolg der Lensa App, Stable Diffusion und dem zugrundeliegenden Thema

AI-generierter Bilder in Kunst und Kultur

mr. pip Inklusive 23 kostenfreie Dateien zum Generieren von Bildern Ihrer Lieblingspolitiker !!!

www.edmundpiper.de instagram.com/pip_bln/

mr. pip

Spätestens seit das Auktionshaus Christie‘s im Herbst 2018 das erste AI generierte Bild („Edmond de Belamy“) für 432.500 Dollar versteigerte, kommt der Kunstmarkt nicht mehr umhin, sein Augenmerk zunehmend in Richtung digitaler Kunst schweifen zu lassen. Im Frühjahr 2021 kam dann ein NFT (Non Fungible Token) des US-Künstlers Beeple („Everydays: The First 5000 Days“), ebenfalls bei Christie‘s, nach Abgabe von 353 Geboten für sage und schreibe 69,35 Mio. US-Dollar unter den Hammer. Und selbst ein Fußball-NFT des FC Barcelona (“In A Way, Immortal”) brachte es im Sommer diesen Jahres bei Sotherby‘s auf insgesamt 693.000 Dollar. Damit ist klar, dass sich die traditionell eher konservativ geprägte Kunstwelt nicht nur dem drängenden Ansturm digitaler Kunst, sondern auch den damit einhergehenden technischen Innovationen nicht länger verschließen können wird.

Neben der allseits beliebten Frage „Was ist Kunst?“ erfährt vor dem Hintergrund einer zunehmend rasanten technischen Entwicklung gerade letzterer Punkt besonders für Kunstschaffende und kreativ Tätige aller Branchen eine ganz besondere Wichtigkeit: Jetzt gilt es für alle Akteure, von Händlern bis zu Kunst-/Kultur-Produzenten, neuen digitalen Werkzeugen nicht pauschal technikfeindlich, sondern offen zu begegnen, um differenziert eruieren zu können, welche dieser Tools sich von wem und wo am sinnvollsten einsetzen lassen.

Die vorliegende Arbeit „THIS IS NOT“ widmet sich diesen Fragen am Beispiel des „AI-Bilder“-Programms (Deep-Learning-Text-zu-Bild Generator) Stable Diffusion. Die grundlegenden Überlegungen treffen jedoch auch auf alle weiteren Programme dieser Art zu.

Intro

This is Not

This is Not

Keines der hier gezeigten Bilder ist “real”.

Aber zu jeder der dargestellten Personen existiert eine Datei, mit der sich von ihr beliebig viele weitere Bilder in unterschiedlichen Stilen generieren lassen.

Worum geht es bei THIS IS NOT ?

Dass sich die Bedeutung Bildender Kunst nicht nur darüber offenbart, was man auf den ersten Blick zu sehen bekommt, sondern sich zu teils erheblichem Maß aus diversen kulturellen Verweisungszusammenhängen generiert ist nicht neu. Kunstfreunde erinnern sich diesbezüglich beispielsweise gerne an das schwarze Quadrat von Malewitsch oder an das als Readymade ausgestellte Urinal von Duchamp.

Ging es für Malewitsch noch um einen “Nullpunkt” in der Malerei, die Erfahrung reiner Gegenstandslosigkeit und für Duchamp um die Frage “Kann man Kunstwerke machen, die keine Werke aus ‘Kunst’ sind?”, so geht es hier im übertragenen Sinn um die digitale Überwindung eines Nullpunktes: Aus der buchstäblichen Gegenstandslosigkeit, der absoluten “Diffusion”, generieren sich Bilderwelten, die für sich genommen zunächst ebenfalls “Nicht-Kunst” sind: und doch dazu werden können.

Sie merken, auch die vorliegende Arbeit lebt von ihrem Bedeutungszusammenhang. Ohne den entsprechenden Kontext mögen die gezeigten Bilder zwar für das eine oder andere seichte Gemüt einen gewissen Unterhaltungswert mit sich bringen, doch erschließt sich der Sinn der Arbeit nicht vollumfänglich.

“Was will uns der Künstler damit sagen?” - Die Kunstgötter wissen, wie sehr ich diese Frage als junger Mensch hasste. Und vermutlich ist es allein ihrem recht schrägen Humor geschuldet, dass sich nun auch der Sinn meiner Arbeit ohne Wissen um den zugrundeliegenden Kontext nicht in toto erfassen lässt. Das tut mir ganz ehrlich sehr leid. Doch nun ist es, wie es ist: Darum gliedert sich die vorliegende Arbeit in drei unabdingbar zusammengehörige Teile: einen ersten der praktischen Umsetzung, einen zweiten der Kontextualisierung und einen dritten, in dem Sie aktiv am Prozess der Kunstwerdung partizipieren können. Oder, etwas weniger verklausuliert, Im dritten Teil stelle ich ihnen kostenfrei alle nötigen Dateien zur Verfügung, damit Sie sich von den im ersten Teil bebilderten Modellen beliebig viele eigene Bilder generieren lassen können. - Die vorliegende Arbeit richtet sich also nicht nur an den passiven Kunstfreund, sondern sie animiert auch dazu, selber kreativ zu werden.

This
Not
is

Inhaltsverzeichnis

Seite 003 / Intro - Vorwort

Seite 004 / Modellübersicht

Seite 006 / Worum geht es bei THIS IS NOT?

Seite 007 / Inhaltsverzeichnis

Seite 008 / Teil 1 - Einführung

Seite 010 / THIS IS NOT _ Annalena Baerbock

Seite 016 / THIS IS NOT _ Jan Böhmermann

Seite 022 / THIS IS NOT _ Marco Buschmann

Seite 028 / THIS IS NOT _ Nancy Faeser

Seite 034 / THIS IS NOT _ Franziska Giffey

Seite 040 / THIS IS NOT _ Ulrike Guérot

Seite 046 / THIS IS NOT _ Robert Habeck

Seite 052 / THIS IS NOT _ Björn Höcke

Seite 058 / THIS IS NOT _ Anetta Kahane

Seite 064 / THIS IS NOT _ Ricarda Lang

Seite 070 / THIS IS NOT _ Karl Lauterbach

Seite 076 / THIS IS NOT _ Ursula von der Leyen

Seite 082 / THIS IS NOT _ Christian Lindner

Seite 088 / THIS IS NOT _ Friedrich Merz

Seite 094 / THIS IS NOT _ Lusisa Neubauer

Seite 100 / THIS IS NOT _ Georg Restle

Seite 106 / THIS IS NOT _ Claudia Roth

Seite 112 / THIS IS NOT _ Norbert Röttgen

Seite 118 / THIS IS NOT _ Markus Söder

Seite 124 / THIS IS NOT _ Jens Spahn

Seite 130 / THIS IS NOT _ Marie-Agnes Strack-Zimmermann

Seite 136 / THIS IS NOT _ Sahra Wagenknecht

Seite 142 / THIS IS NOT _ Alice Weidel

Seite 148 / Teil 2

Seite 198 / Teil 3

Seite 199 / Download Link

Seite 201 / Finito

This is Not

Teil 1 - Einführung

Die Bilderserie zu “THIS IS NOT” präsentiert Ihnen eine Auswahl grafischer - zuweilen fotografisch anmutender - Abbildungen ausgewählter politischer Akteure der Bundesrepublik Deutschland. Der Großteil dieser Personen besteht aus amtierenden Spitzenpolitikern. Um der realpolitischen Situation Rechnung zu zollen, sind zusätzlich Prominente aus dem politischen Vorfeld vertreten. Dabei wurde um parteipolitische Verortung zu vermeiden darauf geachtet, Beteiligte aller politischen Parteien/Strömungen gleichsam zu bedenken. Denn um Sympathiebekundungen für diese oder jene politische Gruppierung, das kann ich Ihnen versprechen, geht es mir nicht. Und falls sich eventuell ob der einen oder anderen Darstellung der eine oder andere Eindruck - wenn überhaupt, dann nur äußerst sanft - andeuten sollte, nun ja, dann ließ es sich wohl nicht vermeiden.

Sämtliche der gezeigten Bilder wurden voll-automatisch vom kostenfreien Computerprogramm “Stable Diffusion” (in der älteren 1.5 Version) erzeugt. Von meiner Seite erfolgte dabei bis auf die anfängliche Eingabe sehr rudimentärer Stichpunkte in Textform keinerlei Einflussnahme auf den Bildaufbau / die Gestaltung der Bilder. Ein Beispiel zum Verständnis: Nach der Texteingabe von bspw. “Polaroid von Franziska Giffey als weibliche Supermaktmitarbeiterin, ausgelassene Stimmung, diffuses Licht und verschwommene Farben” muss man nur noch die Anzahl der gewünschten Bilder eingeben, die der Computer erstellen soll, und schon geht es los. Ganz einfach. - Da der Computer jedoch kein Künstler ist, die Stichpunkte wirklich sehr grob und das Programm noch in seinen Anfängen steckt, kommt es bei den vorgeschlagenen Bildern nicht selten zu unerwünschten Resultaten. Häufig sind die Gesichter, fast immer die Hände deformiert. Doch das stellt hier kein Problem dar, denn “häufig” ist im vorliegenden Prozedere relativ. Den Computer stört es nicht, wenn er statt 4 Vorschlägen 400 oder 4000 unterbreiten soll. Er rechnet munter drauf los, so dass die eigentliche Arbeit letztendlich darin besteht, eine Auslese der automatisch generierten Bildern zu treffen.

Auf den folgenden Seiten finden Sie also meine jeweils sehr klein gehaltene Auswahl zu den ein-

gangs vorgestellten Modellen. - Beim Betrachten der Bilder möchte bitte berücksichtigt werden, dass es mir aufgrund eines recht alten Computers mit lediglich schwacher Rechenleistung leider nicht möglich war, eine große Anzahl an Bildern generieren zu lassen, aus denen ich hätte auswählen können. Das erwähne ich nicht, um die ggf. mangelhafte Qualität der gezeigten Bilder zu entschuldigen. Mir ging es maßgeblich um das technische Experiment, mit dessen Ausgang ich persönlich sehr zufrieden bin. Nein, ich erwähne es, um interessierte Kreative mit vermutlich neueren Computermodellen oder dem nötigen Kleingelt für das Anmieten einer Cloud-GPU (*was tatsächlich gar nicht so teuer ist) darauf hinzuweisen, dass es ihnen mit Sicherheit möglich sein wird, sehr viel schneller einen weit größeren Bilderpool generieren zu lassen, aus dem sich dann auswählen lässt.

Aber zurück zum Thema. Auf den folgenden Seiten finden sie nun meine kleine Auswahl an Darstellungen. Der Fokus ist dabei auf eine Inszenierung der Körper resp. Körperlichkeit gerichtet. Dies geschieht entweder über für das ausgewählte Milieu eher unüblich bebilderte Kleidungsstile - ob diese tatsächlich ungewöhnlich sind, wissen wir nicht - oder durch partielles zur Schau stellen von Nacktheit. Die vorliegenden Bilder sind unverkennbar keine Erzeugnisse einer ansonsten häufig durch Pr-Agenturen, Berater oder Augenmerk auf Medienwirksamkeit erfolgten Selektion. Dadurch werden die Modelle ihren repräsentativen Rollen enthoben, was dazu einlädt, sie als “ganz gewöhnliche Menschen” zu betrachten: Und so auch das Hinterfragen ihres machtvollen Wirkens erleichtert.

Der Ansatz Mächtige und Machtstrukturen über inszenierte Körperlichkeit/Darstellung der Körper mit einem ironischen Augenzwinkern versehen zu hinterfragen, ist in der Kunstwelt bei weitem nicht neu, sondern eher schon ein Standard. Doch das ist hier auch nur der zunächst offensichtliche Teil der Arbeit. Tatsächlich geht es maßgeblich um die Form der technischen Umsetzung, was deren im zweiten Teil erfolgende Besprechung verdeutlicht.

Und die Option, dass die Arbeit über das im dritten Teil erfolgende freie Veröffentlichen der ModellDateien evtl. sogar ein künftiges Eigenleben entwickeln kann, macht die Sache extra spannend.

THIS IS NOT _ Annalena Baerbock

Modell 01: Annalena Baerbock

Funktion: Außenministerin der Bundesrepublik Deutschland

Partei: Bündnis 90/Die Grünen (Grüne)

10

THIS IS NOT _ Jan Böhmermann

Modell 02: Jan Böhmermann

Funktion: Moderator deutscher Staatsmedien / Öffentlich Rechtlicher Rundfunk, Entertainer und poitischer “Aktivist”

16

THIS IS NOT _ Marco Buschmann

Modell 03: Dr. Marco Buschmann

Funktion: Justizminister der Bundesrepublik Deutschland

Partei: Freie Demokratische Partei (FDP)

22

THIS IS NOT _ Nancy Faeser

Modell 04: Nancy Faeser

Funktion: Innenministerin der Bundesrepublik Deutschland

Partei: Sozialdemokratische Partei Deutschlands (SPD)

28

THIS IS NOT _ Franziska Giffey

Modell 05: Ex-Dr. Franziska Giffey

Funktion: Interims-Bürgermeisterin von Berlin

Partei: Sozialdemokratische Partei Deutschlands (SPD)

34

THIS IS NOT _ Ulrike Guérot

Modell 06: Prof. Dr. Ulrike Guérot

Funktion: Leiterin der Professur Europapolitik, Uni Bonn Politikwissenschaftlerin und Publizistin

40

THIS IS NOT _ Robert Habeck

Modell 07: Robert Habeck

Funktion: Wirtschaftsminister der Bundesrepublik Deutschland

Partei: Partei Bündnis 90/Die Grünen (Grüne)

46

THIS IS NOT _ Björn Höcke

Modell 08: Björn Höcke

Funktion: Vorsitzender der AfD-Fraktion im Thüringer Landtag

und Landessprecher der AfD Thüringen

Partei: Alternative für Deutschland (AfD)

52

THIS IS NOT _ Anetta Kahane

Modell 09: Anetta Kahane

Funktion: ehem. Denunziantin der Staatssicherheit der DDR. In der Bundesrepublik maßgeblich an der Einführung des Begriffes “Hatespeech” beteiligt sowie an der Schaffung und Bewerbung diesbezüglicher Überwachungssturkturen

58

THIS IS NOT _ Ricarda Lang

Modell 10: Ricarda Lang

Funktion: Bundesvorsitzende der Bündnis 90/Die Grünen

Mitglied des Bundestag (MdB)

Partei: Partei Bündnis 90/Die Grünen (Grüne)

64

THIS IS NOT _ Karl Lauterbach

Modell 11: Dr. Karl Lauterbach

Funktion: Gesundheitsminister der Bundesrepunlik Deutschland

Partei: Sozialdemokratische Partei Deutschlands (SPD)

70

THIS IS NOT _ Ursula von der Leyen

Modell 12: Dr. Ursula von der Leyen

Funktion: Präsidentin der Europäischen Kommission

Partei: Christlich Demokratische Union (CDU)

76

THIS IS NOT _ Christian Lindner

Modell 13: Christian Lindner

Funktion: Finanzminister der Bundesrepublik Deutschland

Bundesvorsitzender der Freie Demokratische Partei

Partei: Freie Demokratische Partei (FDP)

82

Modell 14: Friedrich Merz

Funktion: Bundesvorsitzender der Christlich Demokratische Union

Mitglied des Bundestag (MdB)

Partei: Christlich Demokratische Union (CDU)

THIS IS NOT _ Friedrich Merz
88

THIS IS NOT _ Luisa Neubauer

Modell 15: Luisa Neubauer

Funktion: Jugendbotschafterin der US-amerikanischen Lobby- und Kampagnenorganisation ONE, führende “Aktivistin” von “Fridays for Future”, Mitglied diverser NGOs

Partei: Partei Bündnis 90/Die Grünen (Grüne)

94

Modell 16: Georg Restle

Funktion: Moderator deutscher Staatsmedien / Öffentlich Rechtlicher Rundfunk, aktiver Vertreter eines “werteorientierten Journalismus”

THIS IS NOT _ Georg Restle
100

THIS IS NOT _ Claudia Roth

Modell 17: Claudia Roth

Funktion: Kulturministerin der Bundesrepublik Deutschland

Partei: Partei Bündnis 90/Die Grünen (Grüne)

106

THIS IS NOT _ Norbert Röttgen

Modell 18: Dr. Norbert Röttgen

Funktion: Mitglied des Deutschen Bundestag (MdB) seit 1994

Partei: Christlich Demokratische Union (CDU)

112

THIS IS NOT _ Markus Söder

Modell 19: Markus Söder

Funktion: Parteivorsitzender der Christlich-Soziale Union

Ministerpräsident des Freistaat Bayern

Partei: Christlich-Soziale Union (CSU)

118

Modell 20: Jens Spahn

Funktion: Mitglied des Deutschen Bundestag (MdB)

Partei: Christlich Demokratische Union (CDU)

THIS
IS NOT _ Jens Spahn
124

THIS IS NOT _ Marie-Agnes Strack-Zimmermann

Modell 21: Dr. Marie-Agnes Strack-Zimmermann

Funktion: Vorsitzende des Verteidigungsausschuss

des Deutschen Bundestag, Mitglied des Deutschen Bundestag (MdB)

Partei: Freie Demokratische Partei (FDP)

130

THIS IS NOT _ Sahra Wagenknecht

Modell 22: Dr. Sahra Wagenknecht

Funktion: Publizistin

Mitglied des Deutschen Bundestag (MdB) seit 2009

Partei: Die Linke

136

THIS IS NOT _ Alice Weidel

Modell 08: Dr. Alice Weidel

Funktion: Fraktionsvorsitzende der Bundestagsfraktion und Bundessprecherin der Alternative für Deutschland

Partei: Alternative für Deutschland (AfD)

142

Alle der gezeigten Bilder wurden mit einer mittlerweile älteren Version des Computerprogramms “Stable Diffusion” generiert, dass auch für den momentanen Erfolg der Lensa App auf Mobiltelefonen verantwortlich ist. Die Lensa-App ist die zur Zeit am häufigsten heruntergeladene App in der Kategorie Foto des Google Play Store, aus dem sie bereits über zehn Millionen Mal heruntergeladen wurde und dadurch allein in den ersten Dezembertagen einen Umsatz von über 8 Millionen Dollar generierte.

Anders als die Lensa App, die im Wesentlichen nicht das Programm Stable Diffusion, sondern - überaus kostspielig - dessen mobile Nutzung über Rechenleistung in der Cloud verkauft, mit der sich Stable Diffusion dann begrenzt vom Mobiltelefon aus ausführen lässt, ist das Programm Stable Diffusion selbst kostenfrei zugänglich.

Abgesehen davon verfügt Stable Diffusion zumindest momentan noch über keinerlei Zensur-Reglementierungen, was es gerade für Künstler besonders interessant macht. Im Gegensatz dazu hat die Lensa-App, von der Prüderie-Lobby unter zum Teil hanebüchenen Fake-Vorwürfen gedrängt, angekündigt, nun eine entsprechende Moral-Zensur zu implementieren und sich damit auf das Niveau von bspw. Facebook und Instagram zu begeben. Damit mag die App zwar den verklemmten Moralvorstellungen US-amerikanischer Prüderisten genügen, doch da gerade Teilakt/Akt-Darstellungen zum festen Kanon der Bildenden Kunst gehören, muss vermutlich nicht extra erwähnt werden, dass sie damit zumindest für Künstler einen Teil ihres Reizes verliert.

Doch noch ein anderer, ganz wesentlicher Punkt sollte die Nutzung der Lensa-App nicht nur für Künstler verbieten: Die BILD berichtet am 09.12.22

“Die Bilder, die Sie mit der App berechnen lassen, dürfen Sie frei verwenden – das Unternehmen hinter der „Lensa“-App allerdings auch! Wer die Funktion benutzt, muss vorher zustimmen, dass „Lensa“ die generierten Fotos aufbewahren, weiterverwenden und auch verkaufen kann! Dabei kontrolliert niemand, ob Sie Fotos von sich selbst oder von einer fremden Person hochladen.”

Da sich die vorliegende Arbei vornehmlich an den Kunst- und Kulturbetrieb wendet, werde ich deshalb nicht weiter als nötig auf die Lensa-App eingehen und mich im Folgenden dem eigentlich interessanten Programm der App, “Stable Diffusion”, zuwenden.

Hierzu foolgt einleitend für alle, die bisher keine idee davon haben, worum es bei diesem Programm geht, einen kurze Einführung in die zugrundeliegende Technik. Technikfreunde oder jene, die eine zumindest ungefähre Vorstellung davon haben, wie das Programm funktioniert, bitte ich, diesen Absatz tunlichst zu überspringen!! - Denn, ganz ehrlich, ich selbst bewege mich diesbezüglich auf dem absoluten Null-Niveau eines reinen Users und vermag deshalb nur einen wirklich sehr vagen Eindruck zu vermitteln. Dieser ist vermutlich fehlerhaft und für Sachkundige absolut schrecklich, ja, vielleicht sogar schmerzhaft zu lesen. Aber immerhin entsteht so eine anfängliche grobe Idee dessen, worum es ungefähr gehen könnte. Und das ist für die darauf folgenden Ausführungen schon einmal besser als gar nichts.

Also, los geht es.

TEIL 2 - KONTEXT
- THIS IS NOT - 148

AI generierte Bilderstellung – eine kurze Einführung

Das Programm Stable Diffusion ist grob genommen ein Bildverarbeitungsprogramm. Es verarbeitet Daten, die anhand eines Bilderpools trainiert wurden, dessen Bilder in Form von Bild/Text-Paaren gespeichert sind. Das bedeutet, dass zu jedem Bild, auf das Stable Diffusion in seinem “Bilderpool” zurückgreifen konnte, auch ein kurzer Text existiert, der in sehr wenigen Stichpunkten die wesentlichen Dinge beschreibt, die auf diesem Bild zu sehen sind. Geht es beispielsweise um einen Foto-Schnappschuss, der einen Hund zeigt, könnte die dazugehörige Textdatei die Angaben “Hund, Park, Baum” beinhalten. Eigentlich ganz einfach. Interessant wird die Sache durch den Umstand, dass der “Bilderpool”, mit dem Stable Diffusion “trainiert” wurde, nicht nur aus ein paar Hundert Bild/Text-Paaren Besteht, sondern aus über 5 Milliarden! Diese stammen aus dem Datensatz des gemeinnützigen und frei zugänglichen Projektes LIAON (liaon.ai), dass das komplette Internet automatisiert nach allen frei auffindbaren Bildern durchsucht, um diese herunter zu laden. Auf seiner Internetseite gibt LIAON folgende Beweggründe für seine Sammelwut an:

“Die Motivation hinter der Erstellung von Datensätzen besteht darin, Forschung und Experimente rund um das Training von groß angelegten multimodalen Modellen und den Umgang mit nicht kuratierten, groß angelegten Datensätzen, die aus dem öffentlich zugänglichen Internet gecrawlt wurden, zu demokratisieren. ”

So weit, so gut. Doch was machte nun Stable Diffusion mit all diesen Bildern?

Allgemein könnte man es wohl so beschreiben, dass sich Stable Diffusion diese Bilder anschaute und miteinander verglich. Da SD jedoch kein Mensch, sondern ein Computerprogramm ist und auch die Bilder in Form digitaler Daten vorliegen, “schaute” es sehr genau. Sehr, sehr genau. Es analysierte Pixel für Pixel in jedem Bild, merkte sich die dazugehörigen Text-Paare und verglich diese Bild/Text-Paare mit allen anderen der 5 Milliarden Bild/Text-Paare. Und mehr noch, das Programm verglich nicht nur die vorhandenen Bild/Text-Paare, sondern analysierte jedes der vorliegenden Bilder auch noch in “unterschiedlichen Schärfegraden”, die dann ebenfalls kreuz und quer miteinander verglichen wurden.

Stellen Sie sich bitte vor, eine alte Fotokamera zur Hand zu nehmen und so lange am Objektivring zu drehen, bis das Bild im Sucher komplett unscharf erscheint. Dann erkennen sie erstmal nichts. Logisch. Erst durch Drehen am Objektivring wird das Bild langsam scharf und immer schärfer, bis Sie es perfekt fokussiert haben. Nun unterteilen Sie bitte den Weg vom komplett unscharfen Bild bis zum perfekt scharftgestellten gedanklich in zehn Punkte. Eins wäre so unscharf, dass absolut nichts zu erkennen ist, zehn unser perfektes Motiv. Bei Punkt Nummer 2 würden Sie vermutlich ein noch immer kaum erkennbares Bild zu sehen bekommen, bei dem sich maximal eine vage Form vermuten lässt. Punkt 5 ließe bereits Konturen erahnen. Sie könnten zu rätseln beginnen, was es zu sehen gibt, Und bei Punkt 7 hätten Sie bereits, ohne Details erkennen zu können, eine recht klare Vorstellung vom Motiv. - Nun übertragen wir diese kleine Denkidee einmal auf 5 Milliarden digitale Bilder und nehmen an, dass nicht wir diese betrachten, sondern das Computerprogramm Stable Diffusion.

Um den Eindruck von Unschärfe zu erzeugen, fügt Stable Diffusion den im Bilderpool befindlichen Bildern zunächst künstlich Unschärfe (Noise) hinzu. Das tut es jedoch nicht, wie in unserem kleinen Beispiel, nur zehnmal, sondern vermutlich tausendmal und ist so dazu in der Lage, die unterschiedlichen Bilder in ihren jeweiligen Unschärfestufen, für das menschliche Auge lange nicht mehr wahrnehm-

- THIS IS NOT - 149

bar, sehr fein zu analysieren. Nach etwas Rechenzeit hat das Programm dann eine recht genaue Vorstellung davon, wie ein betreffendes Bild bei einem hinzugefügten Grad an Unschärfe aussehen kann. Außerdem kann es ja nicht nur ein Bild mit allen anderen Bildern vergleichen, sondern auch die jeweiligen Unschärfegrade miteinander. Es hat gelernt, wie sich ein Bild verändern kann, wenn der Unschärfegrad von bspw. 871 auf 872 steigt: und ist dadurch letztendlich auch in der Lage dazu, dieses Verfahren Schritt für Schritt umzukehren: Es kann aus dem Unscharfen heraus scharfstellen, es kann “Denoising” betreiben.

Dieser hier nur sehr rudimentär skizzierte Trainingsprozess von Stable Diffusinon soll, soweit ich es verstand, in einem Online-Cluster bestehend aus 256 Nvidia A100-GPUs (Grafikkarten) stattgefunden und insgesamt rund 150.000 Stunden Rechenleistung verursacht haben. Der Preis für dieses Rechenspektakel wird auf mindestens 600.000 US-Dollar geschätzt. Und das Resultat ist eine Datei mit Analysedaten, auf die das Programm Stable Diffusion nun zugreifen kann, um nach Eingabe stichpunktartiger Texte Denoising zu betreiben, also eigenständig “scharf zu stellen”, sprich: Bilder zu generieren.

KRITIKPUNKTE

Nachdem Sie jetzt ein zumindest allgemeines Verständnis davon erhalten haben, was es mit dem Programm Stable Diffusion auf sich hat, möchte ich zuerst auf wesentliche Kritikpunkte eingehen, die durch den Erfolg der Lensa-App beflügelt, ihren Weg in die Medien fanden.

Dem vorausschicken muss ich die grundsätzliche Mahnung, nicht jeder aufgeregt geäußerten Kritik sofort anheim zu fallen. Denn leider bringen jene, die sie zuweilen lautstark äußern, nicht selten wenig Verständnis für die dem Programm zugrundeliegende technische Innovation mit. Und, abgesehen davon würde es auch nicht mit rechten Dingen zugehen, wenn eine so neue Technologie nicht sofort von allen Seiten kritisiert würde. Vermutlich liegt es schlicht in der Natur vieler Menschen, über alles Neue ganz grundsätzlich erst einmal zu mäkeln. So war es, als die Eisenbahn gen 1825 als “Höllengefährt” beschrieben wurde, und nicht anders verhielt es sich, als die Fahrgäste der ersten Autos gen 1898 “aus Angst zitterten”.

Deshalb lassen wir uns bitte auch hier nicht vorschnell kirre machen und schauen uns ganz entspannt an, was es denn mit der zum Teil sehr vehement vorgebrachten Kritik auf sich hat.

DATENSCHUTZ

Als erster Punkt sei hier das Thema Datenschutz genannt.

Wie weiter oben bereits erwähnt wurde davor gewarnt, dass sich das Unternehmen der Lensa-App alle Rechte sichere, die Bilder der Nutzer nach eigenem Gutdünken gegebenenfalls auch professionell weiter zu verwenden. Das hört sich natürlich erst einmal unangenehm an. - Ganz grundsätzlich ist zum Thema Datenschutz im Internet jedoch anzumerken, dass wir spätestens seit der Debatte rund um Edward Snowden wissen, dass so etwas wie Datenschutz im Internet tatsächlich kaum existiert. Wer sich hier absolute Sicherheit wünscht, sollte bitte sein Mobiltelefon im Klo herunterspülen und dem Internet so weit fern bleiben, wie es nur irgend geht. Denn wir wissen, dass der Großteil dessen, was wir im Internet - auch auf privaten Kanälen - unverschlüsselt von uns geben, gespeichert wird und ggf. dubiosen Big

150 - THIS IS NOT -

Data Analysen unterzogen werden kann. Gerade erst wurde das auf unzähligen Mobiltelefonen befindliche WhatsApp aufgrund von Intransparenzen im Bereich Datenschutz von einem EU-Gericht zu einer Strafe von 225 Millionen Euro verurteilt. Eine Summe, die für die zu Meta gehörende App vermutlich eher lächerlich anmutet. Denn, apropos Meta: Auch Facebook und Instagramm gehören zu Meta, was uns daran erinnern sollte, dass Mark Zuckerberg seinen Reichtum nicht über Mitgliedsbeiträge oder Werbung einspielte, sondern als Daten-Dealer. - Nicht umsonst lautet eine alte Binsenweisheit für Gratisangebote im Internet:

„If you are not paying for it, you’re not the customer; you’re the product being sold.“

Also, Mobiltelefon entsorgen und Internet ausschalten? Nein, denn wie bei so vielen Dingen gibt es ja auch hier nicht nur Schwarz und Weiß, sondern glücklicherweise noch ein paar Graustufen dazwischen. Die Zauberworte heißen “Datenhygiene” und “Medienkompetenz”. Diese Themen auch nur einigermaßen angemessen zu erörtern, würde jedoch den Rahmen des vorliegenden Textes sprengen. Deshalb nur so viel: Überlegen Sie einfach, womit Sie entspannt leben können, und gut ist es.

Der Umstand, dass sich Lensa sämtliche Nutzungsrechte an allen Bildern sichert, macht eine eigene professionelle Weiterverwertung unattraktiv. Das mag, bei geringem Anspruch, vielleicht gerade noch für wirklich kleine Kulturevents hinnehmbar erscheinen, für die mal eben ein Motiv für einen Flyer generiert wird, der schon kurze Zeit später wieder vergessen ist. Doch für anspruchsvollere Verwertung wie bspw kostenintensive Werbemaßnahmen oder gar eigene künstlerische Produktion verbietet es sich meines Erachtens völlig. - Und auch abgesehen vom Kulturbetrieb würde ich äußerst ungerne ein persönliches Bild von mir selbst generieren lassen, dass hinterher womöglich auflagenstark in einer Werbung zur Lensa-App publiziert, seinen Weg in die Öffentlichkeit findet. Aber klar, das muss letztendlich jeder für sich selbst entscheiden.

Wie bei so vielen anderen Themen auch, lässt sich die Kritik hier nur aus einer rein subjektiven Warte heraus äußern. Wenn jemand beispielsweise ein China-Fan ist, der die Einführung eines digitalen “Social Credit System” begrüßt und insofern auch nichts gegen totale Überwachung einzuwenden hat, wird es ihn vermutlich nicht stören, dass die massenhafte Verwendung der Lensa-App das Risiko mit sich bringt, digitale Gesichtserkennung zu trainieren. Anderen wiederum wird möglicherweise Angst und Bange, wenn sie nur daran denken, dass sie samt Millionen anderer Nutzer über die mittels ihrer Bildauswahl erfolgende Rückmeldung an die App eventuell dazu beitragen könnten, eine Technologie zu perfektionieren, die bezüglich der Entwicklung von Überwachungstechnologie ein enorm großes Gefahrenpotenzial in sich birgt.

Von daher belasse ich es an dieser Stelle bei den vorliegenden Stichpunkten zum Thema Datenschutz und verbleibe mit der Bitte, sich keiner Aufregung hinzugeben, sondern ganz entspannt selbst darüber nachzudenken, welche Dienste man mit seinen Daten füttern möchte: und welche lieber nicht.

Ich persönlich rate Künstlern und Kreativen das Thema Datenschutz betreffend davon ab, die Lensa-App zu nutzen und empfehle stattdessen, lieber Stable Diffusion auf dem heimischen Computer laufen zu lassen. Falls gewünscht funktioniert das auch im Offline-Modus. Und automatische Updates gibt es hier auch keine. Denn die müssen im Bedarfsfall qua Eingabeaufforderung (win) oder Terminal (mac) eigenhändig heruntergeladen werden.

- THIS IS NOT - 151

SEXISMUS / RASSSISMUS / usw.-ismus

Ein weiterer beliebter Kritikpunkt, der auch in unseren Medien sehr gerne thematisiert wird, besteht darin, dass dem Programm aufgrund der generierten Bilder Sexismus und Rassismus vorgeworfen wird.

Einige politisch korrekte Eiferer finden, dass die generierten Körper zu sehr gängigen Schönheitsstandarts entsprechen. Andere finden, dass ethnische Gruppen nicht in vollem Umfang gleichwertig repräsentiert werden. Kurzum, den generierten Bilderwelten soll es sträflich an der dieser Tage so vielgepriesenen “Diversität” mangeln.

Mir persönlich scheinen all diese -ismen Vorwürfe maßgeblich darin begründet, dass jene, die sie äußern, die Funktionsweise des Programms nicht wirklich verstanden. Wenn sich also unsere Qualitätsmedien diesbezüglich mit Sexismus/Rassismus-Vorwürfen überschlagen, bitte ich zu berücksichtigen, dass die Redakteure, die solche Beiträge veröffentlichen, nicht selten auch zu jenem Klientel gehören, dass sich lautstark darüber echauffiert, wenn in einer Netflix-Serie nicht sämtliche Ethnien und Gender-Gruppen gleichwertig repräsentiert werden. Und, wir haben es hier auch nicht mit einem Computerspiel oder einem Roman zu tun: beides Genres, bei denen Sexismus und Rassismus-Vorwürfe dieser Tage in den Feuilletons beinahe schon obligatorisch sind. - Was all die “Social Justice Warrior” in den Redaktionsstuben offenbar nicht verstanden ist, dass es sich beim Vorliegenden Programm nicht um eine schnell erzählte Geschichte handelt, deren Rollenbesetzung wir nach Belieben ideologischen Gesichtspunkten unterwerfen können. Darum noch einmal: Es handelt sich um ein Computerprogramm, dass auf rund 5 Milliarden (!) Bilder zurückgreift, die völlig wertungsfrei aus dem Internet gesammelt wurden. Wenn man möchte, kann man es als eine Art visuelle Meta-Erzählung verstehen, die sich aus 5 Milliarden einzelnen kleinen visuellen Erzählungen speist und sich nicht mal eben umschreiben lässt. - Da hat jemand einen Code geschrieben, der sagt: Gehe ins Internet, und wenn du dort ein Bild findest, speichere es ab. Dieser ganze Vorgang erfolgte im positivsten Sinn völlig wertungsfrei und ohne jedes Moralisieren. Denn dem Code ist es egal, ob ein Bild rot, gelb oder grün ist, ob es eine dicke oder eine dünne Frau zeigt. Er weiß nicht einmal, was eine Farbe oder ein Mensch ist. Was er hingegen sehr gut weiß ist, was eine Bilddatei ist. Und die speichert er ab, sobald er sie findet.

Natürlich funktioniert die Sache hier sicherlich etwas anders, und letztendlich geht es ja auch, wie wir bereits erfahren haben, um Bild/Text-Paare, doch das Prinzip sollte klar sein. Es wird gespiegelt, was sich frei zugänglich im Internet findet. - Wenn sich nun also über die Bilder echauffiert wird, die auf Grundlage dieses Bilderpools generiert werden, dann liegt das ganz offensichtlich daran, dass dem ein funamentales Problem in Sachen Medienkompetenz zugrunde liegt, denn:

Selbstverständlich bilden im Internet frei verfügbare Bilder unsere Realität nicht vollumfänglich ab!

Der Gesamteindruck der generierten Bilder würde sich sicherlich deutlich mehr in Richtung Realität verschieben, wenn auch solche Bilder ihren Weg in den Pool fänden, die bspw. in unzähligen mit Passwörtern geschützten privaten SocialMedia-Profilen gepostet wurden. Doch das tun sie halt nicht. Hier geht es tatsächlich um einen Pool aus ausschließlich frei auffindbarem Material. Und die Aufgabe der allermeisten in diesem Pool befindlichen Bilder besteht gerade nicht darin, “Realität abzubilden”, sondern einen gewünschten Eindruck zu erwecken. Die meisten der im Internet öffentlich kostenfrei publizierten Bilder verfolgen einen kommunikativen Zweck. Dieser kann beispielsweise darin bestehen, Werbung für Produkte oder Dienstleistungen zu machen. Ebenso könnte es sich um PR-Bilder von

- THIS IS NOT - 152

Schauspielern und/oder Politikern handeln. Viele Bilder stammen vermutlich aus Medien, die bereits aufgrund dessen, was sie gerne kommunizieren wollen, eine Auswahl des Bildmaterials trafen. Und dann wären da noch die unzähligen Bilderfluten sogenannter Influencer und Sternchen, die ihre zu Werbezwecken optimierten Lebenswelten zur Schau stellen. Kurzum, auch wenn sich inmitten der ungeheuren Masse der von LAION gesammelten Bilder sicherlich eine gewisse Vielfalt offenbart, so dürfte der Großteil des in der Gesamtheit zur Verfügung stehenden Bildmaterials eher einen kommunikativen Zweck verfolgen, der ganz gewiss nicht im Bereich des Abbildens politischer Idealvorstellungen zu verorten ist. Dies jedoch zum Anlass zu nehmen, um einem innovativen Bildverarbeitungsprogramm wie Stable Diffusion eine ethische Kulturdebatte aufzuzwingen, halte ich für verfehlt. Zum einen, weil dies der falsche Ort ist, um solch eine ausufernde Debatte zu führen. Zum anderen, weil die große Stärke von Stable Diffusion gerade in seiner Offenheit besteht.

Denn diese Offenheit geht in beide Richtungen. Nicht nur, dass Stable Diffusion mit maximaler Offenheit an allen frei zur Verfügung stehenden Bildern trainiert wurde, nein, es ist auch offen, um von jedem interessierten Nutzer nach dessen subjektiver Interessenlage weiter trainiert zu werden. - Wenn Sie noch einmal meine eingangs gezeigten Bilder Revue passieren lassen, werden Sie feststellen, dass ich nichts anderes getan habe, als diese Offenheit anzunehmen und darauf aufbauend eigene Modelldateien zu trainieren: nämlich jene der bebilderten Prominenz.

Nun gibt es Stimmen, die dem bewusst als Open Source Software platzierten Programm Stable Diffusion vorwerfen, seine am LAION Bild/Text-Pool trainierte Datei zum Generieren von Bildern nicht im Nachhinnein dahingehend manipuliert zu haben, dass beispielsweise das Generieren von Nacktheit verunmöglicht wird. Oder, dass Darstellungen von Menschen stets nach einem zugrundeliegenden Schlüssel ethnischer/rassischer Darstellungen zu erfolgen haben. Es wird nicht weniger, als die Implementierung eines Ideologie-bedingten politischen Filters gefordert. Hierzu stellt sich mir die Frage, wer denn dann über die inhaltliche Ausgestaltung dieser Manipulation befinden soll? Selbstverständlich tun sich diesbezüglich die überlauten Schreihälse diverser progressiver NGOs mit ihren Forderungen ganz besonders hervor. Doch nüchtern betrachtet sind diese zwar laut, doch demokratisch nicht legitimiert. Wer also sollte darüber befinden, ein so interessantes Programm wie Stable Diffusion in seinen Möglichkeiten zu beschränken? Wessen Moralvorstellungen wollen wir zur Grundlage möglicher Einflussnahme machen? Wollen wir tatsächlich kreative Werkzeuge nutzen, die sich im Umfang ihrer Möglichkeiten selbst reglementierend den überzogen Prüden Moralvorstellungen von Giganten wie Facebook & Co unterwerfen? Oder sollte unser von der Regierung berufener Ethikrat darüber befinden, der gerade noch damit beschäftigt war, allen jenen Bürgern, die sich aus ganz persönichen Gründen nicht gegen Corona impfen lassen wollten, die Lebensgrundlage zu entziehen? Nein. Bitte nicht.

Sie merken schon, ich stehe Zensur-Ansätzen äußerst kritisch gegenüber und empfehle stattdessen, auf maximale Offenheit zu setzen.

Was ist damit gemeint?

Ein so vielfältig nutzbares Programm aufgrund ideologisch bedingter Regulierungswut in seinem Funktionsumfang zu minimieren, hätte zwangsläufig zu Folge, die Gestaltungsmöglichkeiten von Künstlern und Kreativen zu beschränken. Die Gefahr einzugehen, dass uns dadurch wertvolle Beiträge verloren gehen, lässt sich für mich nicht begründen. Deshalb plädiere ich dafür, Möglichkeiten des Ausdrucks nicht zu reglementieren, sondern stattdessen lieber zur breiten Nutzung des offenen Programms quer

- THIS IS NOT - 153

durch alle Bevölkerungsschichten anzuregen. Es darf nicht darum gehen, bestimmte Inhalte aufgrund subjektiver ideologischer Vorbehalte von vorn herein auszuschließen, sondern, im Gegenteil, so viele Menschen wie möglich dazu zu animieren, neue Inhalte zu generieren: nicht exklusiv, sondern tatsächlich inklusiv zu denken.

Anstatt quer durch die Feuilletons zu jammern und darüber zu lamentieren, wie schlimm sexistisch und rassistisch das Programm ist, sollten viel eher Anleitungen und Lehrgänge zu dessen Nutzung veröffentlicht werden. So ließen sich vermutich binnen kürzester Zeit etliche neuer Modelldatein erstellen, anhand derer sich unterschiedlichste Bilder generieren lassen, die dann, in ihrer wunderbaren Vielfalt, wieder Einzug ins Internet und damit irgendwann auch einmal in den LAION Bilderpool erhalten könnten. - Ja, ich gebe zu, dass sich das etwas fantastisch anhören mag. Doch rhetorische Überhöhung ist angesichts bestehender Zensurgelüste völlig legitim. Und der Ansatz sollte klar sein: Anstatt etwas zu verbieten sollte es viel eher darum gehen, jene Inhalte, die man bisher vermisst, einfach selbst zu schaffen. Geschähe dies in einer hinreichenden Masse, beispielsweise weil viele Menschen Freude am hobbymäßigen generieren von Bilderwelten finden, würde sich auch der Gesamteindruck jener Bilder, die wir im Internet finden, peu a peu verschieben.

Der Ansatz dazu hieße “Demokratische Evolution statt Zensur!”

Mit dem kostenfreien Zurverfügungstellen der eigens generierten Stable-Diffusion Modelldateien der auf den vorherigen Seiten bebilderten politischen Prominenz leistet die vorliegende Arbeit genau dazu einen ersten Beitrag.

STILE-KLAU / KÜNSTLER KOPIEREN / Urheberrechtsverletzungen

Nachdem wir nun die Punkte Datenschutz sowie Sexismus, Rassismus, usw.-ismus hinter und brachten und Sie vielleicht schon merkten, dass ich diese nicht so wirklich bedenklich finde, kommen wir nun zu einem Kritikpunkt, den ich hier am liebsten ausgespart hätte. Denn es handelt sich dabei um jenen, der in den meisten Medien und Diskussionsgruppen am lautesten vorgebracht wird. Weil er ganz offenbar die meisten Emotionen weckt. Herunter gekocht und sachlich auf den Punkt gebracht geht es dabei um den Vorwurf, Stable Diffusion würde Künstler nicht respektieren, geradezu bösartig ihre Stile kopieren und schlimmstenfalls sogar Urheberrechte verletzen.

Ich persönlich halte das in weiten Teilen für ausgemachten Unfug. Zinnober. Mumpitz.

Und, wie erwähnt bereitet es mir geradezu innerliche Qualen, darauf überhaupt eingehen zu müssen. Aber da diese Kritik nun einmal aller Orten und teilweise sogar an sehr prominenten Stellen hervorgebracht wird, bleib mir wohl nichts anderes übrig. Also, wo fange ich an?

Zuerst einmal wäre vielleicht eine Entschuldigung angebracht:

Liebe Kritiker, es tut mir herzlich leid, dass mein erster emotionaler Impuls darin besteht, Euch auszulachen. Ich weiß, dass das nicht fein ist. Aber ich kann einfach nicht anders. Denn, ganz ehrlich, Eure weinerlich hervorgebrachte Kritik ist einfach nicht ernstzunehmen. Und würde ich über Euer Gejammer in unzähligen Internetforen und diversen Medien nicht lachen, so müsste ich über Eure Einfalt weinen.

- THIS IS NOT - 154

Vor einigen Jahren, das ist nun wirklich schon eine Weile her, verdiente ich etwas Geld damit, zusammen mit einem Kompagnon eine Galerie in Berlin Mitte zu betreiben. Das lief mitunter gar nicht so schlecht. Und so verkauften wir nicht nur die eine oder andere Arbeit, sondern konnten auch an Kunstmessen teilnehmen. Nebenbei gaben wir dann ein paar Jahre lang auch noch ein gedrucktes Kunstmagazin in einer Auflage von ein paar tausend Exemplaren monatlich heraus. Und weil ich schon immer weniger der Typ für das Geld und mehr für die Kunst war, kümmerte ich mich statt um Anzeigenakquise und Distribution lieber um die Inhalte. Einige Beiträge schrieb ich sogar selbst. So kam ich mit anderen Galeristen, Kunsthändlern und Künstlern in Kontakt. Und weil das irgendwie alles noch nicht genug zu sein schien. veranstaltete ich später auch noch eigene Kunstmessen. Zuerst nur in Berlin, später auch in Köln. Das waren zwar leider bei weitem nicht die umsatzstärksten Events ihrer Art, doch immerhin wurden sie wahrgenommen. Denn es gab dort einiges an spannender Kunst zu entdecken.

Ich erwähne das an dieser Stelle nicht, um anzugeben. Nein, das fast sicher nicht. Diese Zeit liegt nun schon etliche Jahre hinter mir und ich habe aus ganz persönlichen Gründen damit abgeschlossen. Der Lifestyle passte einfach nicht zu mir. Ganz simpel. Warum ich jedoch darauf hinweise ist der Fakt, dass ich in meinem Leben durchaus schon die Gelegenheit hatte, den einen oder anderen professionellen Künstler kennenzulernen. Insgesamt waren es vermutlich weit über einhundert Künstler, deren Arbeiten ich persönlich und “in real” begutachtete, ausstellte und die ich tatsächlich auch wiedererkennen und zuordnen könnte. Und, tataa!, darum geht es mir jetzt:

Unter all diesen Künstlern ist tatsächlich niemand dabei, keine einzige Person, von der ich annehmen würde, dass ihr ein Programm wie Stable Diffusion gefährlich werden könnte. Nicht eine!

Hin und wieder wurde ich sogar von hiesigen Kunstakademien eingeladen, um den jungen Künstlern, die gerade ihren Meisterschüler gemacht hatten, zu erklären, wie das mit dem Erfolg am Kunstmarkt funktioniert. Ich möchte nicht beurteilen müssen, ob gerade ich die richtige Person dafür war, doch immerhin wurde es nicht schlecht bezahlt, und insofern gab ich gerne meinen Psalm zum besten. Apropos gute Bezahlung: Auch nicht schlecht war es, von staatlich finanzierten Institutionen in ferne Länder geschickt zu werden, um dort über die Kunstwelt zu referieren, Ausstellungsmacher und Künstler kennen zu lernen. Und auch dort, ganz ehrlich: Niemand, von dem ich annehmen würde, dass ihm ein Programm wie Stable Diffusion in irgendeiner Art gefährlich werden könnte. Nicht einer.

Und jetzt kommt das große ABER:

Aber, wenn ich mich so zurück besinne, dann fallen mir einige Künstler ein, für die sich ein Programm wie Stable Diffusion zu einem tatsächlich wertvollen Werkzeug entwickeln könnte. Die damit tatsächlich etwas anfangen könnten. und die sich eventuell sogar darüber freuen würden, wenn man es ihnen näher brächte.

Ich bin, das muss ich zugeben, nicht zur Kunst gekommen, weil ich Kunst so sehr liebe. Das zu behaupten wäre ebenso übertrieben, wie zu sagen, dass ich Kunst hasse. Obwohl letzteres gerade in Bezug auf den Kunstmarkt vielleicht schon etwas näher im Zielgebiet liegt. Aber Spaß beiseite: Weder bin ich ein Kunstliebhaber, noch ein Kunsthasser, sondern ganz einfach jemand, der - warum auch immer - aus einer Art innerem Drang heraus nicht ohne Kunst leben kann. That simple. So ist es nicht weiter verwunderlich, dass ich mir im Laufe der Zeit auch selber das eine oder andere Kunstwerk kaufte. Von einer tatsächlichen Sammlung zu sprechen, wäre leider etwas übertrieben.

- THIS IS NOT - 155

Doch, glauben Sie mir, fiele plötzlich ein Batzen Geld vom Himmel und eine sonore Stimme spräche zu mir “Hier pip, Du warst zwar nie wirklich ein guter Mensch und eigentlich hast du es auch nicht verdient, aber die himmlische Lotterie hat entschieden: Darum nimm diesen Goldschatz, Du bist jetzt reich!” - ganz ehrlich, dann würde mein Wohlstand vermutlich nicht sonderlich lange halten. Denn früher oder später hätte ich mir eine gigantomanische Kunstsammlung zugelegt, die etliche mit Thermometern, Hygrometern, Luftbefeuchtern, Luftentfeuchtern und Luftreinigern bestückte Lagerhallen füllt. Und ich würde diese Lagerhallen von der brutalsten und skrupellosesten Russen-Gang bewachen lassen, die man für Geld nur irgendwie kriegen kann! Und, tja, leider würde mich das vermutlich in den Ruin treiben. Aber so ist das halt mit der Kunst: Es geht nicht mit ihr, und es geht nicht ohne sie. Also zurück zum Thema:

Wenn Sie Kunst nicht lieben und nicht hassen, aber doch immerhin genug wertschätzen können, um dafür Geld auszugeben, dann ist so ein Computerprogramm kein Grund um Besorgnis zu erregen, sondern viel eher, um in freudige Erwartung darauf zu verfallen, was damit noch alles möglich sein wird. Wie werden Künstler, und damit meine ich jetzt nicht die jämmerlichen Heulsusen, sondern tatsächliche Künstler, die sich ihrer Schaffenskraft bewusst sind, damit umgehen. Werden sie mit Hilfe des Programms womöglich dazu in der Lage sein, noch mehr geilen Scheiß zu produzieren? Dann bitte, immer her damit!

Apropos, warum ich das mit meiner kleinen Sammelleidenschaft erwähnte: Wenn Sie so ein Kunstwerk für verhältnismäßig viel Geld - und es liegt leider in der Natur der Sache, dass es sich, egal auf welchem Niveau sie kaufen, häufig um zu viel Geld handelt - wenn Sie also so ein Kunstwerk erwerben, dann geht es doch bei weitem nicht nur um das, was wir davon aufgrund einer mäßigen fotografischen Reproduktion irgendwann einmal als Abbild im Internet erblicken können. Ganz wesentliche, ja essenzielle Eigenschaften wie beispielsweise Materialbeschaffenheit und Farbauftrag lassen sich doch gar nicht über Reproduktionen vermitteln. Einmal ließ ich eine Fotoserie, weil es gerade sehr gut passte, auf MetallicPapier belichten. Und ich kann Ihnen verraten, so etwas kriegen Sie dann nachher weder in einen Katalog gedruckt, noch lässt sich der tatsächliche Eindruck auf Bildchen im Internet vermitteln. Doch das ist nur ein sehr einfaches Beispiel dessen, worum es hier geht. Das weite Feld der Malerei müssen wir dazu nicht einmal betreten. Denn auch was Zeichnungen, Papierarbeiten anbelangt, finden die wesentlichen Dinge, also jene, die Käufer ganz ausschlaggebend interessieren, doch nicht in der digitalen Reproduktion ersichtlich statt. Oder spielen Dinge wie beispielsweise der Duktus plötzlich keine Rolle mehr? Sollte es geadezu egal sein, wie viele Schichten unterschiedlicher Pigmente da übereinander lasiert wurden, um einer Farbe letztendlich eine bestimmte Tiefe zu verleihen?

Aber ja, Sie merken schon, vielleicht bin ich tatsächlich etwas befangen. Denn mich interessieren hier vor allem Originale. Für Reproduktionen konnte ich mich nie so wirklich erwärmen. Und nicht nur das. Wenn ich die letzten Zeilen noch einmal Revue passieren lasse, fällt mir auf, dass sich dabei viel um das Thema Handwerk dreht. Und um Künstler, die ihr Handwerk beherrschen. Alle anderen, das gebe ich unumwunden zu, sind mir mehrheitlich egal. Und, das ist nicht despektierlich gemeint. Denn ich will mir nicht anmaßen, jemanden zu beurteilen, der sich womöglich auf einem guten Weg befindet. Doch im Grunde ist es wohl ganz einfach so, dass mich Künstler kaum interessieren. Nicht selten empfinde ich sie sogar als lästige Charaktere. Was mich hingegen interessiert, sind ihre Arbeiten. Und nur um diese darf es hier letztinstanzlich gehen. - Ist ein Programm wie Stable Diffusion dazu geeignet, Produktionsbedingungen für Künstler, ob man sie nun mag oder nicht, derart zu beeinflussen, dass sie in ihrer Arbeit gefördert werden? Wenn ja, dann ist es gut. Ohne Wenn und Aber.

- THIS IS NOT - 156

Und was all die anderen anbelangt, die rein gigital werkelnden Amateure, die sich nun von Programmen wie Stable Diffusion bedroht fühlen, weil sie selbst es maximal zum dekorativen Einzelbildchen bringen, ihnen sei gesagt:

Ja, fühlt Euch bedroht. Ihr habt es nicht anders verdient! Eure in dekorativen Mist verpackten platten Null-Inhalte verschmutzen schon jetzt das Internet. Wenn nun durch Stable Diffusion davon noch ein paar weitere Tonnen an Pixel-Verschwendung hinzukommen, dann offenbart das einfach nur, dass es von Euch allen viel zu viele gibt.

Wer jetzt nicht dazu in der Lage ist, sich nur etwas am Riemen zu reißen und seine eigene Position zu behaupten, der hat es, pardon, nicht anders verdient. Wer es nicht schafft, über bunte, von einem Computerprogramm reproduzierbare digitale Einzelbildchen hinaus zu kommen, der möge in dieser Diskussion bitte, gerne für immer, schweigen. Zu lange habt Ihr Euch erdreistet, Euch mit der Krone der Kunst zu schmücken, obwohl sie euch nicht zusteht. Schweigt! Digital-Deko-Dilettanten und einfältige Illustratoren, schweigt!

Wer die letzten Zeilen aufmerksam las, dem wird aufgefallen sein, dass ich darin von Einzelbildchen schrieb. Und das aus gutem Grund. Denn nichts läge mir ferner, als sämtliche Künstler, die digital arbeiten, pauschal ansprechen zu wollen. Dazu finden sich auch ín diesem Bereich viel zu viele, deren Arbeiten ich sehr schätze.

Als junger Mensch offenbarte sich meine Sammelleidenschaft zunächst dadurch, dass ich plötzlich, ohne es geplant zu haben, vor einer recht ausufernden Comic-Sammlung stand. Nachdem ich dann später nicht mehr damit zu befrieden war, handsignierte Drucke zu bestellen, ertappte ich mich dabei, zu Messen zu fahren, um dort erste Originalzeichnungen zu erwerben. Selbstverständlich konnte ich mir das damals von meinem mageren Gehalt gar nicht leisten. Und so folgte letztendlich, was folgen musste: meine erste Pleite. - Auch diese traurige Episode gebe ich hier nicht ohne Grund zum Besten, sondern um darauf hinzuweisen, dass ich mir, könnte ich, wie ich wollte, nicht nur eine gigantomanische Kunstsammlung, sondern definitiv auch ein eigenes Comic-Museum zulegen würde. Denn im Grunde genommen, da will ich ehrlich sein, war mir die in weiten Teilen der akademischen Kunstwelt übliche Unterscheidung zwischen Comic und Kunst immer schon suspekt. Sogar äußerst! suspekt. Denn einige der großartigsten Künstler artikulieren sich über Comics. Ja, ich würde mich sogar in die dahingehende Behauptung versteigen wollen, dass der Kunstgehalt einer Auswahl an Arbeiten aus dem Bereich Comic (inkl. Manga, Animee, Hentai) mindestens ebenso hoch ist - wenn nicht sogar höher - als der einer Auswahl beliebiger Arbeiten, die man aktuell aus den Galerien zeitgenössischer Kunst zusammenzutragen im Stande ist.

Dabei ist, das muss ich zugeben, dieser Vergleich nicht ganz fair. Er hinkt insofern, als dass das Comic gerade nicht auf ein Einzelbild beschränkt ist. Es lebt zu nicht unerheblichem Maße vom Element der Erzählung. Und genau diese wird ein Computerprogramm auch auf absehbare Zeit nicht in der künstlerischen Qualität umsetzen können, wie es tatsächliche Künstler vermögen. Zwar gibt es auch jetzt schon einige Comic-Produktionen, die auf AI-generierte Bilder setzen. Aber mal ganz ehrlich: das ist doch alles nichts. Wer sich diese Arbeiten zu Gemüte führt, wird schnell feststellen, dass hier lediglich versucht wird, “die AI-Welle zu reiten”. Tatsächlich jedoch verschiebt sich hier der Part der Erzählung weg vom Bild hin zum Text. Den Bildern kommt dabei nur noch eine Rolle als in Einzelbildern erfolgende Ilustration des Textes zu. Sie sind so austauschbar, für sich genommen belanglos, wie

- THIS IS NOT - 157

es sich kein Zeichner von seinen Arbeiten wünscht. Denn der Computer kann halt nur reproduzieren. Seinem Code entspringen zuverlässig nur immer weitere Variationen des immer Gleichen. Was er hingegen nicht kennt, sind kulturelle Narrative, durch verschiedenste Genres, Gattungen und mediale Inszenierungsformen symbolisch aufgeladene Erzählmuster. Diesbezüglich kennt er keine inhaltliche Bezugnahe. Ein visuelles genreübergreifendes erzäherisches Zitieren, inhaltliche Verweise ggf. sogar über dargestellte Mimiken, Gesten und Gebärden sind ihm fremd. Er kann halt keine Kunst, sondern bloß Medieninhalte. - Aber imerhin, damit hat er - in Bezug auf Stable Diffusion und ähnliche Programme - das große Potenzial, zu einem wertvollen Werkzeug für jene Künstler zu werden, deren Anspruch mehr, als die Erstellung bloßer Illustration in Form dekorativer Einzelbilder ist. Denn deren Arbeiten leben zu nicht unbeträchtlichem Teil, da seien wir ehrlich, von Verweisen. Der Kanon der Kunst ist ohne diese nicht denkbar. Nur so, über genreübergreifendes Zitieren lassen sich Erzählungen weben, die es letztendlich vermögen, zum Bestandteil unserer Kultur zu werden. Und, apropos Verweise: Worte wie “Stile” oder “Genres” verweisen auf nichts andres.

Eine bekannte Redewengung lautet “Good artists copy, great artists steal.” - Auch wenn man hier natürlich ein ironisches Augenzwinkern mitliest, so entbehrt dieses Bonmot doch nicht eines wahren Kerns. Denn, alle Künstler, die es ernst mit ihrer Kunst meinen, sind Kopisten.

Das bedeutet nicht nur, dass sie sich selbstverständlich die Arbeiten ihrer werten Kollegen zu Gemüte führen und sich hier und dort begeistert inspirieren lassen. Nein, ich meine damit ganz konkret, dass sie über einen wesentlichen Zeitraum ihres Schaffens - eigentlich sogar den wesentlichen Zeitraum, denn es war der ihres Künstlerwerdens - fremde Arbeiten kopierten. Fast könnte man so weit gehen zu behaupten, dass sie im Grunde zunächst nichts anderes taten als das, was Stable Diffusion heute auch tut: Sie analysierten so gut es ihnen möglich war, fremder Leute Arbeiten. Sie schauten sie nicht einfach nur an, sondern verschlungen sie. Inhalierten in tiefen Zügen immer und immer wieder Bildaufbau, Linienführung und Bildelemente. Und wagten schließlich den ersten bedeutenden Schritt, diese zu reproduzieren: Ein großer Schritt!

Einige begannen sogar mit dem Durchpausen fremder Arbeiten, um sich deren Linienführung ins physische Gedächtnis zu trainieren. Ähnlich, wie vielleicht manch fehlgeleiteter Schuljunge die Unterschrift seiner Eltern immer und immer wieder Durchpauste, um sich dann Entschuldigungsschreiben selbst ausstellen zu können, kopierten sie die Zeichnungen ihrer Helden, bis sie dazu in der Lage waren, diese selber freihand reproduzieren zu können. Und daran ist nichts verwerflich: Sie lernten ihr Handwerk. Immer mehr und immer wilder kopierten sie. Und freier. Bis es dann irgendwann immer gelöster wurde, weil es irgendwann nicht mehr genügte, einfach nur zu kopieren: Sie wollten “Eigenes” schaffen. Also entstanden, gespickt aus Versatzstücken der Arbeiten fremder Künstler zunehmend eigene. Es entwickelte sich peu à peu ein “eigener Stil”, der für das geschulte Auge von Kunstfreunden noch immer von seinen Bezügen zeugt: That’s the way the cookie crumbles.

Selbst als professionelle Künstler sind viele noch dabei, eifrig zu kopieren. In etlichen Ateliers, die ich besuchte, und das waren nicht wenige, fanden sich unzählige gesammelte Bilder fremder Urheberschaft. Sei es in Form von Ausstellungskatalogen, seitenweise ausgerissen aus Zeitschriften und Magazinen oder ausgedruckt nach eingehender Internet-Recherche. Denn bevor es an eine neue größere Arbeit geht, möchte man sich zunächst selbstverständlich ganz genau ansehen, womit man es zu tun bekommt. Diese Recherche gehört bei nicht wenigen Künstlern ganz einfach mit dazu. Gilt es beispielsweise eine

- THIS IS NOT - 158

Laserkanone zu malen, ist es doch ganz normal, dass man sich zuvor anschaut, wie so ein Teil aussehen kann. Und wie andere Künstler das vor einem umsetzten. Dann nimmt man sich vielleicht die Schulterstütze aus jenem Foto, den lauf aus dieser Zeichnung und wenn es richtig fett werden soll auch noch das coole Zielfernrohr aus dem Screenshot-Ausdruck eines Lieblingsfilms und versucht das ganze in seinen “eigenen” Stil zu transportieren. Selbst so vermeintlich einfache Dinge wie beispielsweise ein Baum werden doch heutzutage kaum noch en plein air gepinselt. Diese Vorstellung gehört dem romantisierten Bild eines Künstlerdaseins an, dass mit real existierenden Produktionsbedingungen kaum noch etwas zu tun hat. Und ja, sicherlich gibt es auch noch Künstler, für die es zum ganz persönlichen Erlebnis des Kunstschaffens gehört, hinaus in die wilde Natur zu ziehen, um dort nach einem Baum ihrer Wahl zu suchen. Das will ich gar nicht in Abrede stellen. Doch ein weit größerer Teil wird heutzutage vermutlich lieber schnell nach einer passenden Vorlage im Internet suchen.

Und, jetzt bitte nicht erschrecken, ausgerechnet im Shop von “ArtStation”, einer populären Internet-Plattform für (Hobby-) Künstler, auf der ganz besonders viele Künstler ganz besonders engagiert gegen “AI-Kunst” Stimmung machten, findet sich das große “Freelance Bundle” mit “+7000 PNG Cutouts” und “Free lifetime updates”, bestehend aus etlichen Vorlagen für alles Mögliche, Bäume, Autos, Laserkanonen, Ritterrüstungen usw. - halt allem, was das Herz des munteren Kopisten begehrt. - ICH

BIN ERSCHÜTTERT !!! - Nein, das bin ich natürlich nicht. Auch dann noch nicht, als ich entdecke, dass es zudem auch ein “384+ Daily Sketching Female Reference Pictures vol.2” in extra hoher Auflösung im Angebot gibt. Ich finde es nur unverständlich, dass ausgerechnet auf solch einer Plattform in großem Stil gegen ein neues Werkzeug wie Stable Diffusion lobbyiert wurde. So wirklich erschließt sich mir der Sinn dahinter nicht.

- THIS IS NOT - 159

Immerhin wurde ArtStation 2021 zu offiziell nicht bekanntem Preis von Epic Games übernommen. Epic Games selbst ist ein über die Grenzen der Branche hinaus bekanntes Softwareunternehmen, dass äußerst umtriebig im Spiele-Bereich ist und momentan wohl einen Wert von rund 31,5 Milliarden US-Dollar auf die Waage bringt. Zu seinen bekanntesten Angeboten zählt das mehrfach ausgezeichnete Spiel Fortnite - das Computerspiel hatte zeitweise mehr als 400 Millionen Spieler und ist besonders bei Kindern und Jugendlichen beliebt - sowie die wohl marktführende Spiel-Engine “Unreal Engine”. Schaut man sich die Tätigkeitsfelder von Epic Games an, ist nicht verwunderlich, dass zu den häufigen Kooperationspartnern der Firma die Nvidia Corporation zählt, die ihrerseits einer der größten Entwickler von Grafikprozessoren und Chipsätzen für Personal Computer, Server und Spielkonsolen ist: geschätzer Marktwert rund 402,51 Milliarden Dollar. Und ausgerechnet besagte Nvidia Cooperation hat mit ihrem NVIDIA Research-Projekt “NVIDIA GET3D” ein AI-Projekt am Start, dass nochmal auf einem ganz anderen Level als Stable Diffusion spielt. Denn hier geht es um das automatische Generieren von 3D-Modellen. In der Projektbeschreibung dazu heißt es:

“Nur mit 2D-Bildern trainiert, generiert NVIDIA GET3D 3D-Formen mit High-Fidelity-Texturen und komplexen geometrischen Details. Diese 3D-Objekte werden im gleichen Format erstellt, das von gängigen Grafiksoftwareanwendungen verwendet wird, so dass Benutzer ihre Formen sofort in 3D-Renderer und Game-Engines zur weiteren Bearbeitung importieren können.”

“GET3D bringt uns der Demokratisierung der KI-gestützten Erstellung von 3D-Inhalten einen Schritt näher“, sagte Sanja Fidler, Vizepräsidentin der KI-Forschung bei NVIDIA, die das in Toronto ansässige KI-Labor leitet , das das Tool entwickelt hat. „Seine Fähigkeit, texturierte 3D-Formen sofort zu erzeugen, könnte für Entwickler ein Wendepunkt sein und ihnen helfen, virtuelle Welten schnell mit abwechslungsreichen und interessanten Objekten zu bevölkern.”

Ganz ehrlich? Das ist einfach der Wahnsinn! Und eine Entwicklung, die sich definitiv nicht mehr aufhalten lässt. Warum sollte man auch?

Ich sehe der künftigen Entwicklung mit freudiger Erwartung entgegen. Der Lobbyismus vieler ArtStation Mitglieder gegen AI-generierte Bilder erscheint mir demhingegen in höchstem Maße bigott. Ich kann ihn nur dem Umstand zuschreiben, dass es ihnen mehr darum geht, ihren anvisierten Kundenkreis zu betutteln, als der aktuellen Entwicklung Rechnung zu tragen und Künstler in der zusätzlichen Nutzung von AI-Programmen zu trainieren. - Ich schreibe hier ganz bewusst von zusätzlich, weil ich nicht der Meinung bin, dass das Eine das Andere ausschließt, sondern viel eher, dass sich eigene handwerkliche Technik und das zusätzliche Tool gegenseitig beflügeln und den Künstlern zu schnellerem eigenen Erfolg verhelfen können. Aber dazu später.

Ende Dezember 2022 rangen sich die Betreiber von ArtStation dazu durch, den bis dahin bereits in schiere Hysterie ausgeuferten “Anti-AI-Art Protest” auf Ihrer Plattform zu unterbinden. - Als Vergleich zum Umgang von ArtStation mit dem Thema AI-gernerierter Bilder wagen wir jetzt schnell noch einmal einen Blick auf die Bildagentur “Shutterstock”:

Shutterstock wird momentan auf einen Wert von rund 1,79 Milliarden Dollar geschätzt und besitzt eine Bibliothek von angeblich mehr als 350 Millionen Bildern, Vektoren, Illustrationen und Videos, zu denen täglich um die Zehntausende neue hinzukommen sollen. Ein Marktführer der Branche. 2021 verkaufte Shutterstock Bilder und Metadaten an OpenAI, um bei der Entwicklung von DALL-E

- THIS IS NOT - 160

(eine nicht kostenfreie Alternative zu Stable Diffusion) zu helfen. Im Oktober 2022 kündigte Shutterstock dann eine erweiterte Partnerschaft mit OpenAI an, bei der das Text-to-Image-Modell DALL-E direkt in Shutterstock integriert wird. - Anders als ArtStation versucht Shutterstock also rechtzeitig auf den AI-Zug aufzuspringen und das Programm, ähnlich wie die Lensa-App, zu kommerzialisieren. Was nicht dumm ist. Eventuell moralisch etwas anrüchig. Aber was? Immerhin zahlt Shutterstock ja auch seinen Keativen bei bis zu 100 verkauften Arbeiten im Jahr, was man angesichts der Konkurrenz von rund 80.000 Kreativen erstmal schaffen muss, auch nur 15% des Verkaufspreises an Provision aus. Später werden es dann 20%, was ich persönlich als Anbieter noch immer zu wenig fände. Aber irgendwie muss man ja zu seinen Milliarden kommen: als Agentur. Also, zurück zum Thema.

Wenn ich jetzt einmal der Annahme folge, dass Computer auch in absehbarer Zeit keine Kultur können, des eigenständigen visuellen Erzählens ohne menschliche Hilfe also nicht mächtig sein werden, so darf man zumindest annehmen, dass wir angesichts des raschen Tempos momentaner Entwicklung zumindest irgendwann einmal den Punkt erreichen, in dem umfassende Geschichten, Erzählungen, Chroniken usw. komplett mit allem drum und dran mittels AI-Programmen visuell ausgestaltet werden können. Nun bin ich kein Techik-Freak und kann mir von daher nicht konkret vorstellen, wie so etwas umzusetzen wäre. Vielleicht ließen sich ja zunächst sämtliche Charaktere ebenso wie Handlungsorte und allerhand nötige Objekte für eine gewünschte Geschichte in 3D generieren, um aus diesen dann wiederum AI-gestützt die jeweiligen Bildabläufe zu gestalten. Schlussendlich könnte man, um mal beim vorhin erwähnten Beispiel der Bildgeschichte / Comic zu bleiben, alle Einzelbilder in gewünschter “Kameraeinstellung” mit einem angegebenen Stil versehen, ggf. hier und dort noch etwas nachgebessert, exportieren und tataa: fertig wäre die Geschichte.

Liebe Zeichner und Illustratoren, die ihr momentan so besorgt seid, jetzt bitte nicht erschrecken: Um so etwas in gewünschter Perfektion umzusetzen, bräuchte es auch dann noch Künstler. Nur, das wärt dann vielleicht nicht mehr ihr. - Jedenfalls dann nicht, wenn ihr euch jetzt anstellt, wie Zeichner, die angesichts des sich klar abzeichnenden Siegeszuges der Fotografie lieber ausufernd zu quengeln begannen, als sich so schnell wie möglich eine eigene Kamera zuzulegen und das nötige Handwerszeug zu erlernen. Denn immerhin, wer hätte hier bessere Startbedingungen als ihr? Ihr kennt den Job, bringt Arbeitserfahrung mit und habt euch bereits ein Netzwerk interessanter Kontakte erarbeitet. Was also hält Euch davon ab, AI-Programme zu nutzen, um eure professionelle Arbeit eventuell sogar auf ein neues Niveau zu heben und eure persönliche Hingabe zum Handwerk ungehindert dessen zeitgleich trotzdem weiter zu verfolgen?

Noch etwas zum Thema “das wären dann ebenfalls Künstler, nur vielleicht halt andere und nicht ihr”:

Ich habe wenig Verständnis für Lobbygruppen, die sich momentan bilden, um Künstler gegeneinander auszuspielen. Und ich möchte mir ungerne vorstellen, dass es einigen Damen und Herren dabei weniger um das “Wohl der Künstler”, als viel eher um eigene Partikularinteressen gehen könnte.

Abschließend möchte ich, um dieses leidige Thema endlich zu einem wohl verdienten Ende bringen zu können, noch auf die Stichpunkte “Stile kopieren” und “Fanfiction” eingehen. Denn einige der Kritiker haben ja offenbar große Angst davor, dass nun mittels AI-Programmen “ihr Stil” kopiert wird. Der, wie ich ja weiter oben bereits ausführte, nicht in jedem Fall unbedingt nur “ihr Stil” ist.

- THIS IS NOT - 161

Aber, gehen wir jetzt einmal davon aus, dass wir es bei Künster X mit jemandem zu tun haben, der einer von ganz wenigen ist, die es tatsächlich vollbrachten, ihren ganz eigenen Stil zu erarbeiten. Der eine eigenständige Position vertritt.

Dazu vorab: Selbstverständlich steht es jedem frei, kunstgeschichtliche Epochen / Stile wie beispielsweise Art Deco, Jugendstil, Barock, Klassizismus, Kubismus, Frühmoderne, Expressionismus, Post-Impressionismus inklusive Pointillismus, Fotorealismus usw. zu kopieren. Aber darum geht es hier ja nicht.

Darum spielen hier auch die unzähligen “Fälscherateliers”, die es meisterlich verstehen, die Stile alter Epochen nachzuahmen, erstmal keine Rolle. Schade eigentlich. Denn als ich noch jung in der Kunstwelt war, hatte ich es einmal mit einer Gruppe russischer Maler zu tun, die frisch in den Westen gekommen waren. An der Russischen Kunsthochschule handwerklich unglaublich streng ausgebildet, vermutlich gehörten sie neben ein paar Chinesen zu den handwerklich bestausgebildeten Ölmalern ihrer Zeit, hatten sie schon damals “für Devisen gemalt”. Will heißen, dass sie ihrem kommunistischen Heimatland Devisen einspielten, indem sie im Auftrag reicher Kunstfreunde aus dem Westen klassische Gemälde kopierten. Das taten sie, da sie die Bilder stets mit ihrem Namen unterschrieben, völlig legal. Dadurch gelangten sie als “Fälscher” zu einigem Ansehen, was dazu führte, dass sie schon kurz nach Fall des Ostblocks von pfiffigen Kunsthändlern zum Umzug nach Deutschland motiviert wurden. Und, ganz ehrlich, viel zu motivieren gab es da nicht. Denn für die damals noch jungen Maler hieß das, viel Geld zu verdienen. Die Leute rannten ihnen förmlich die Bude ein. Aber leider ist das ja für das hiesige Thema eher ohne belang. Darum weg vom Kopieren der Toten und hin zum Kopieren der Lebenden. Und auch dazu wieder ein kleines Erlebnis:

Da ich damals, wie bereits geschildert, hin und wieder etwas zum lokalen Kunstgeschehen schreiben musste, gehörte es zum Lauf der Dinge, in den Galerien der Stadt regelmäßig nach spannenden Ausstellungen Ausschau zu halten. Das Ganze begab sich so um die Jahrtausendwende. Berlin war in der Kunstwelt gerade angesagt, die Bankenkrise noch weit weg und viele Leute hatten genug “Spielgeld” in den Taschen, um aus Lust an der Freude unbekümmert in zeitgenössische Kunst investieren zu können. Ein Eldorado internationaler Künstler, mit Ausstellungen und Kunstevents an jeder Ecke. So kam es mir zumindest zeitweilig vor. Rückbetrachtet war es sicherlich auch ganz objektiv eine gute Zeit für die Kunst in Berlin. Denn es gab immer viel zu sehen. Und ich sah viel. - Doch zu meinem Verdruss häufig das Gleiche. Denn es war auch die Zeit, in der die sogenannte “Neue Leipziger Schule” gerade international am durchknallen war. Wie es schien, hatte es Judy Lybke von “Eigen + Art” tatsächlich geschafft, seinen Maler Neo Rauch in den Kunst-Olymp zu katapultieren. Und als kurze Zeit später Lybkes ehemaliger Assistent Christian Ehrentraut seinen Projektraum “LIGA” eröffnete, schien der Hype um die “Neue Leipziger Schule” perfekt. Alle wollten irgendwie dabei sein. Jeder wollte ein Stückchen vom Kuchen. - So kam es, wie es schlussendlich kommen musste: Etliche Maler begannen urplötzlich zu malen, als gehörten sie ebenfalls zur “Neuen Leipziger Schule”. Als wären sie die verschollen geglaubten Zwillinge von Neo Rauch höstselbst. In unzähligen kleineren Galerien reihte sich, so kam es mir zumindest vor, ein Bild im Neo Rauch Stil an das nächste. Ich konnte es schon nicht mehr sehen. Zu viele Galerien betrat ich und wurde schon wieder mit dem Anblick einer billigen Neo Rauch Kopie gefoltert.

Ja, gefoltert, denn anfänglich war es mir wirklich eine Qual. Wie konnten sich all die jungen Maler nur für so etwas hergeben? Warum kopierten sie lieber einen Stil, anstatt sich einen eigenen zu erarbeiten? Klar, es ging ums Geld, aber was war mit der “Künstler-Ehre”?

- THIS IS NOT - 162

Nachdem ich anfänglich also eine Phase der Verzweiflung durchschritt, setzte allmählich ein gewisser Gewöhnungseffekt ein, und ich begann die Sache etwas entspannter zu betrachten. Nun konnte ich sogar eine Ausstellung mit Neo Rauch Kopien ansehen und mir entspannt Gedanken darüber machen, wie gelungen diese waren. Wie gekonnt hatte es der Maler verstanden, den Stil auf sein Motiv zu adaptieren? Siehe da, tatsächlich waren einige gar nicht mal so schlecht. Nicht, dass es mich zu Stürmen der Begeisterung hingerissen hätte, aber wie gesagt: nicht schlecht. So begann ich nach und nach zu akzeptieren, dass es für einige Künstler offenbar gar nicht darum geht, selbst den Kunst-Olymp zu erklimmen, sondern einfach “nur” mit Malen ihr Geld verdienen zu können. Und ich entwickelte Verständnis dafür, dass sich in gleichem Maße auch Käufer fanden, die sich ein Original von Neo Rauch - mal abgesehen von der langen Wartezeit - niemals hätten leisten können. Man könnte es also so beschreiben, dass sich im Schatten des Erfolges der “Neuen Leipziger Schule” auf einem sehr viel niedrigerem künstlerischen Niveau ein weiterer Markt aufgetan hatte. Einer, der den Originalen absolut nichts wegnahm, sondern im Gegenteil eher noch dazu geeignet war, deren Ruhm zu verstärken. Selbstverständlich waren sich alle Käufer solch einer Arbeit bewusst, dass sie keinen Original Neo Rauch erwarben. Aber dafür immerhin schon etwas mehr, als nur ein Poster. Ein Bild, dass sich zudem bestens dazu eignete, um im Konferenzraum oder der Wohnung platziert allen Besuchern zu signalisieren, dass man sich in Sachen Kunstgeschmack auf der Höhe der Zeit befand. Denn es war groß, es war bunt und, das Schöne daran: Es war billig. Lagen die Preise für eine Arbeit von Neo Rauch damals schon locker im gehobenen Zehntausender-Bereich, so zahlte man für das Bild eines der unzähigen Stil-Imitatoren weniger für den Kunstgehalt, als viel eher für das Handwerk. Und doch mit ein paar tausend Euro noch immer deutlich mehr, als dieser für seine “eigenen” Bilder hätte erzielen können. - Heutzutage bringen es etliche Arbeiten von Neo Rauch auf Auktionen auf einen Preis von deutlich über einer Millionen Dollar. Die Arbeiten der Stil-Imitatoren bekommt man vermutlich kaum noch auf ebay versteigert. Man hatte sich damals nichts weggenommen. Und zugleich half es einigen Malern, die von ihren eigenen Arbeiten nicht hätten leben können, die Malerei nicht an den Nagel hängen zu müssen. Wenn ich mich jetzt daran erinnere, das will ich gar nicht in Abrede stellen, dann mag mir meine Erinnerung zwar durchaus einen kleinen Streich spielen und die Geschehnisse eventuell etwas drastischer erscheinen lassen, als sie sich tatsächlich zutrugen. Doch dazu, mir solche Erlebnisse komplett auszudenken, fehlt mir leider die Fantasie. Deshalb finde ich es rückwirkend betrachtet tatsächlich ganz cool, dass die Sache mit dem Stil-Kopieren - frei nach dem Motto “leben und leben lassen” - nie zu einem großen Thema gemacht wurde.

Eine gänzlich andere, weitaus weniger lockere Haltung scheinen mir da jene “AI-Kunst” Kritiker zu vertreten, die jetzt bereits ob vermeintlichen Stil-Klaus zu klagen beginnen, obwohl sich noch gar niemand tatsächlich an ihrem Schaffen bereicherte. Denn bisher, man möge mich berichtigen, sind sämtliche mir bekannte dahingehende Vorwürfe eher recht allgemeiner Natur. Ein konkreter Fall, in dem es um den “Diebstahl” eines eindeutig nachweisbaren Stils geht, ist mir bisher nicht bekannt: Jedenfalls nicht im professionellen Bereich.

Das wiederum erinnert mich daran, dass sogenannter “Stil-Klau” im Amateurbereich / semi-professionellen Bereich, nicht nur durchaus weit verbreitet ist, sondern sich dort in Form eines eigenständigen Sub-Genres sogar einiger Beliebtheit erfreut: Die Rede ist von Fan-Art beziehungsweise “Fanfiction”.

Wikipedia sagt dazu:

“Fan-Fiction/Fanfiction oder kurz Fanfic oder auch nur FF, deutsch manchmal auch Fanfiktion oder Fangeschichte(n), ist die Bezeichnung für Werke, die von Fans eines literarischen oder trivialliterarischen Origi-

- THIS IS NOT - 163

nalwerkes (zum Beispiel eines Films, einer Fernsehserie, von Büchern, Computerspielen usw.) oder auch real existierender Menschen (z. B. von bekannten Schauspielern, Musikern oder Sportlern) erstellt werden, welche die Protagonisten und/oder die Welt dieses Werkes bzw. die jeweiligen Personen in einer neuen, fortgeführten oder alternativen Handlung darstellen.

Obwohl ähnliche Weiterentwicklungen populärer Geschichten einst eine wichtige kreative Triebkraft vieler Kulturen waren, werden dem heute durch das Urheberrecht enge Grenzen gesetzt, sodass sich Fanfiction heute meistens im nichtkommerziellen „Untergrund“ von Fangemeinden abspielt.”

Bezogen auf das vorliegende Thema beziehe ich mich mit “Fanfiction” natürlich auf Bilder und Animationen, denen 2D/3D-Vorlagen aus den Bereichen Comic, Manga, Animee, Animationsfilm und Computerspiel zu Grunde liegen. Hier kann sehr gut gemachte Fanfiction, zumindest in meiner Wahrnehmung, mittlerweile sogar schon als Bestandteil des jeweiligen Œuvres betrachtet werden. Denn wenn man sich darauf einlassen möchte, lässt sich die tatsächliche Bedeutung einer Arbeit durchaus auch an Umfang und Qualität der dazu erstellten Fanfiction erkennen. Bringt jemand beispielsweise ein neues Comic, ein Manga oder einen Animationsfilm in einem “eigenen Stil” auf den Markt und es entsteht dazu keine umfangreiche und hoch qualitative Fanfiction, dann darf man in leider nicht wenigen Fällen davon ausgehen, dass die Arbeit keine sonderliche Bedeutung erlangen wird.

Ein Beispiel: Als im Sommer 2022 die Serie “Cyberpunk: Edgerunners” / Cyberpunk 2077 erschien, dauerte es nur wenige Tage, bis quer durchs Netz wirklich sehr gut gemachte Fanfiction die Runde drehte. Kein Wunder, denn die Serie erzielte letztendlich eine IMDb-Bewertung von sage und schreibe 8.1 von 10 Punkten. Oder, ein andres Beispiel: Als für Herbst 2021 mit “Arcane” eine Serie zum Computerspiel “League of Legends” angekündigt wurde, zeigten sich nicht wenige Leute skeptisch. Denn Serien zu beliebten Computerspielen mit großer Fanbase sind immer eine heikle Sache. Das Risiko, damit einen Bauchklatscher zu landen, ist verdammt hoch. Als die Serie dann jedoch draußen war, dauerte es ebenfalls nur wenige Tage, bis tatsächlich gute Leute erste Fanfiction präsentierten. Spätestens zu diesem Zeitpunkt sollte jedem klar geworden sei, dass die Serie ein voller Erfolg wird: IMDb 9.0! - Wenn man mittlerweile auf google danach sucht, finden sich dort Tonnen an Fanfiction. Wirklich unzählige “fremde” Arbeiten zeugen auf unterschiedlichsten Plattformen und in etlichen Galerien vom Ruhm der Serie und ihrer Gestalter. - Ich habe bisher nicht vernommen, dass sich Fortiche Production, das französische Entwickler Studio von Arcane, jemals darüber beklagt hätte. Darum ist nicht verwunderlich, dass es nicht lange dauerte, bis auch für Stable Diuffusion eine Datei in Umlauf kam, die dazu in der Lage ist, Bilder im beliebten “Arcane-Stil” zu generieren. Fanfiction lebt.

Aber, ganz so einfach ist die Sachlage natürlich nicht.

Zwar bieten mittlerweile etliche Künstler Arcane-Fan Bilder zum Kauf an, doch ich vermute, dass dies nur deshalb geduldet wird, weil Fortiche Production gegenüber den Fans eine recht entspannte Politik fährt. Und da auch die Stable Diffusion Datei (.ckpt) von Fans kostenfrei erstellt und zur Verfügung gestellt wurde, bewegt sich das Ganze unterhalb einer Schwelle, die finanziell größere Aufmerksamkeit erregen könnte. Nun kenne ich die genaue Situation nicht, doch tatsächlich hätte sich Fortiche Production auch anders verhalten und jedes einzelne Angebot, in dem eindeutig (!) ihr Stil kopiert wird, abmahnen können. Denn immerhin bewegen wir uns hier in einem professinellen Bereich. Darum könnte, sofern nun ein kommerzielles Angebot wie die Lensa-App ebenfalls Bilder im Arcane-Stil anbietet, eine Lizenzvereinbarung nötig sein, um einen kostenintensiven Rechtsstreit zu vermeiden.

- THIS IS NOT - 164

Da ich kein Jurist bin, sind meine Einschätzungen zur Sachlage hier natürlich mit Vorsicht zu genießen. Und ich selbst würde ebenfalls zunächst juristischen Rat erfragen, bevor ich mich in ein evtl. zweifelhaftes Projekt versteige. Allgemein würde ich jedoch davon ausgehen, dass die Sache mit dem Stil-Kopieren immer dann brisant werden könnte, wenn folgende zwei Dinge zutreffen:

1. der Stil muss eindeutig übreinstimmen,

und 2. die Sache muss sich entweder im kommerziellen Bereich abspielen oder im Rahmen einer öffentlichen Verbreitung, die für kommerzielle Interessen interessant werden könnte.

Ausgenommen sind davon - zumindest in Deutschland - Arbeiten, die zum Zweck der Karikatur, der Parodie und des Pastiches entstehen.

Es macht also einen klaren Unterschied, ob ich privat für mich zu Hause ein Bild in einem bestimmten, von einem Künstler kopierten und als solches wiedererkennbaren Stil generieren lasse, oder ob ich mich mit dem professionellen Angebot, ein solches generieren zu lassen, an Millionen von Usern wende.

All das ist jedoch wirklich nicht neu. Dinge wie Urheberrecht und Lizenzrecht sind hinlänglich bekannt. Und auf die aller-allermeisten über Stable Diffusion generierten Bilder finden sie absolut keine Anwendung. Denn sofern nicht wirklich gerade ein ganz konkreter Stil eines ganz konkreten Künstlers “trainiert” wird, liegen den Bildern die eingangs bereits erwähnten 5 Milliarden Bild/Text-Paare LIAON-Datenbank zugrunde: Da wünsche ich viel Spaß dabei, als Künstler den Nachweis zu erbringen, dass die eigene Arbeit Bestandteil eines neu generierten Bildes ist.

Da bei Stable Diffusion, wie vormals schon erwähnt, jedoch auch eigene Modelle “trainiert” werden können, deren generierte Bild-Ergebnisse dann womöglich zumindest partiell sehr konkret auf einzelne Bildelemente eigentlich urheberrechtlich geschütztes Material verweisen, wäre hier angesichts der neuen technischen Situation eventuell eine Nachbesserung der rechlichen Situation für den Bereich digitaler Bilderstellung notwendig.

- THIS IS NOT - 165

DEEPFAKE

Nachdem ich nun die bisher am häufigsten zu vernehmenden Kritikpunkte an der Nutzung der Lensa-App / Stable Diffusion skizzierte und es mir hoffentlich gelang Ihnen plausibel darzulegen, dass diese durchaus zu händeln sind, komme ich nun zu einem Punkt, zu dem ich, obwohl er mir persönlich am wichtigsten erscheint, zu meiner Verwunderung bisher noch absolut gar nichts in der mediealen Kritik vernehmen konnte: dem ungeheuren Deepfake Potenzial von Stable Diffusion.

Ja, Sie haben richtig gelesen: DEEPFAKE !

Ungeheuerlich ist die Sachlage schon allein deshalb, weil hier selbst ich, obwohl ich mich durchaus als äußerst liberalen Menschen bezeichnen würde, für eine Form wie auch immer gearteter Reglementierung stimmen würde.

Aber von vorn.

Wikipedia verrät uns, dass Deepfakes realistisch wirkende Medieninhalte beschreibt, “die durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind. Obwohl Medienmanipulation kein neues Phänomen darstellt, nutzen Deepfakes Methoden des maschinellen Lernens, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen.”

Im Grunde handelt es sich also um nicht anderes als das, was die Lensa-App und damit Stable Diffusion treiben. Denn völlig unabhängig davon, dass die hier generierten Bilder von uns gewünscht sind, beruhen sie doch auf einer Deepfake-Technologie. Wir müssen uns also zunächst von dem Gedanken verabschieden, dass Deepfakes immer etwas zwangsläufig Negatives sind. Denn das Gegenteil ist der Fall: Momentan sind die meisten Deepfakes sogar hoch erwünscht. Millionen Nutzer der Lensa-App freuen sich dermaßen darüber, sich selbst in allen möglichen Posen und Verkleidungen deepfaken zu können, dass sie der App damit einen gigantischen Erfolg bescherten. Doch dürfen wir uns davon nicht blenden lassen. Denn für die App / das Programm macht es letztendlich keinen Unterschied, ob es dazu genutzt wird, Personen bspw. als Comic-hafte Superhelden oder Prinzessinnen darstellen zu lassen, oder ob sie stattdessen einen absolut fotorealistischen Stil generieren. - Um das anzudeuten habe ich Wert darauf gelegt, einige der zuvor präsentierten Promi-Bilder in eher fotografischem Stil generieren zu lassen. Einzelne Abbildungen zeigen recht deutlich, wohin diese Reise gehen kann. Und es stellt sich die Frage, ob wir als Gesellschaft wirklich ein Ticket dafür lösen wollen? Wollen wir uns tatsächlich vorbehaltlos auf eine Technologie einlassen, mit der letztendlich jeder minderbegabte und ggf. psychisch labile Mensch dazu in der Lage ist, kompromittierendes Bildmaterial zu erzeugen?

Aber, immer schön langsam mit den jungen Pferden. Bevor wir nun kollektiv in Panik verfallen und sofort zum Verbot von Stable Diffusion blasen, erlaube ich mir darauf hinzuweisen, dass das Thema Deepfake an sich ja nicht neu ist. Denn Deepfakes gibt es schon lange. Und wer ernsthaft Interesse daran hatte, Schindluder zu treiben, konnte das auch bisher schon tun. Unzählige Pornoseiten im Internet, auf denen die verderbtesten Dinge zu sehen sein sollen - die ich mir natürlich niemals ansah, von deren Existenz ich jedoch hörte - zeugen davon. Wikipedia hat diesem unzüchtigen Treiben sogar einen eignen Absatz gewidmet. Also, das Thema an sich ist tatsächlich nicht neu. Wirklich neu ist nun jedoch die für mein Empfinden bedenklich niedrige Einstiegshürde für Anwender dieser Technik. Denn diese ist mit Stable Diffusion dramatisch gesunken. Und wenn sich das Programm in auch nur annäherndem Tempo weiter entwickelt wie bisher, wird sie sich bald auf Null-Niveau befinden. Das sollte zumindest einer kritischen

- THIS IS NOT - 166

Überlegung wert sein.

Grundsätzlich bin ich natürlich weit davon entfernt, meinen Mitbürgern immer nur das Schlechteste unterstellen zu wollen. Aber, ganz ehrlich, eventuell kann solch eine Technologie sogar Schaden verursachen, sofern sie sich nur in den Händen Weniger befindet. Sollte künftig beispielsweise selbst ein moralisch instabiler politischer “Aktivist” aus irgendeinem Kleinkleckersdorf in einem emotionalen Anflug ideologischer Wallung dazu in der Lage versetzt werden, spontan Deepfakes erstellen zu können, dann ist das vieleicht nicht unbedingt gewünscht.

Bisher wurden solche affektiven Taten u.a. dadurch unterbunden, dass das Erstellen von Deepfakes eine gewisse Expertise im Umgang mit den dazu notwendigen Computerprogrammen voraussetzte. Diese Know-How Anforderungen sowie der geschulte praktische Umgang mit den erforderlichen digitalen Tools waren unabdingbar, wenn man gute Deepfakes erstellen wollte. Dadurch fungierten sie bisher auch als ein gewisser, nennen wir es “sozialer Filter”. Denn wer in seiner Ausbildung theoretisch wie praktisch so weit gekommen war, um perfekte Deepfakes erstellen zu können und sich zudem noch die dazu nötige Hardware leisten konnte, suchte sich vielleicht lieber einen gut bezahlten Job in der Kreativbranche, als zeit- und kostenintensiven Blödsinn zu veranstalten, der im Endeffekt vielleicht sogar noch Ärger bringt. Allein schon die Produktionsbedingungen machten affektives Handeln für den normalen User bisher unmöglich. Heutzutage entwickelt sich diese Situation jedoch in rasantem Tempo in eine gegenteilige Richtung: Schon im relativ kurzen Zeitraum, in dem ich die vorliegende Arbeit erstellte, kam es zu gleich drei großen Updates von Stable Diffusion (auf 1.5, 2.0 und 2.1) und etlichen wirklich überzeugenden Erweiterungen. Diese Entwicklung nimmt einen Verlauf, der ganz deutlich darauf hinweist, dass es künftig keine großartige Expertise mehr benötigen wird, um perfekte Deepfakes zu erstellen. Und auch die Frage der bisher notwendigen Hardware erübrigt sich zunehmend. Denn viele Rechenoperationen können mittlerweile ausgelagert in einer Cloud erfolgen. Insgesamt ist damit auch der real erforderliche Zeitaufwand zum erstellen von Deepfakes entschieden, ja, eigentlich unglaublich brutal gesunken. Es fühlt sich fast schon irreal an. Als lebten wir bereits in der Zukunft. Ich merke, wie alt ich schon geworden bin. Was früher tatsächlich in regelrechte Arbeit ausuferte, wird künftig über ein paar Mausklicks zu bewerkstelligen sein. Und dieser Zustand lädt dann regelrecht zu spontanem und damit nicht selten auch unüberlegtem Handeln ein.

Apropos, weil ich gerade das Thema Erweiterungen Ansprach:

In nur kurzer Zeit entwickelte sich die “inpainting” Möglichkeit von Stable Diffusion zu einem beeindruckend eigenständigen Tool. “Inpainting” bedeutet, dass im Bildraum eines zuvor generierten Bildes (das einem realen über die “Image to Image”-Funktion durchaus sehr sehr nah nachempfunden sein kann) ein bestimmter Bereich markiert wird, der dann vom Programm neu berechnet - also mit einem neuen Inhalt versehen - wird. Das eröffnet natürlich nicht nur Künstlern und Kreativen neue Möglichkeiten, sondern es erleichtert auch die partielle, zunächst kaum wahrnehmbare Manipulation von Bildern. Denn, es muss ja nicht immer gleich die ganz große Betrügerei sein: Im Rahmen einer ohnehin schon aufgeheizten politischen Debatte können ja eventuell selbst kleine Fakes wie beispielsweise ein ausgestreckter Arm mit sogenanntem “Hitlergruß”, wo vorher keiner war, eine unangenehme Dynamik entfalten. Bisher galt bezüglich umstrittener Informationen stets die Regel “Picture or it didn’t happen.” Doch was, wenn sich das gewünschte Bild - beispielsweise eines Hitlergruß auf einer Demonstrationnun ganz einfach binnen Sekunden qua Knopfdruck generieren lässt? Wenn sich problemlos und fast in Echtzeit Fahnen verbotener Organisationen in Berichte von Demonstrationen faken lassen? Wenn sich Waffen in Hände faken lassen, die eigentlich Regenschirme hielten? Und das alles nicht nur in Einzelbil-

- THIS IS NOT - 167

dern, sondern auch in Filmsequenzen.

Denn dem Computerprogramm ist es letztendlich völlig egal, ob es nun ein Bild mit neu hinzugefügtem, sprich manipuliertem Inhalt berechnet, oder beispielsweise dreißig. Oder dreihundert. Bei einer für viele Medien üblichen Bildrate von max. dreißig Bildern pro Sekunde wäre es ein Leichtes, einen fünfsekündigen Schwenk über eine Demonstration mal eben in 150 Einzelbilder zu splitten, davon im ersten Bild einen gewünschten Bereich zum Neuberechnen zu maskieren und nach einer Texteingabe bezüglich des gewünschten neu zu berechnenden Inhaltes kompromittierender Natur, ganz einfach den Starten-Knopf zu betätigen. Nur kurze Zeit später erhielte man die ersehnten neu generierten einhundertfünfzig Einzelbilder, die dann praktischerweise auch gleich im gewünschten Video-Format als fünfsekündige Filmsequenz abgespeichert würden.

Von mir aus nennen Sie mich nervös, aber ich würde eine Technologie, die solch ein Gefahrenpotenzial in sich birgt, ungern in Händen von Personenkreisen sehen, die geneigt sind, damit Schindluder zu treiben. Was also tun? Der Geist scheint bereits aus der Flasche, und den Gestaltungsspielraum von Künstlern und Kreativen einzuschränken halte ich auch für keine zielführende Idee. - Von daher könnte ich mir nun am ehesten vorstellen, dass man darauf hinwirkt, Stable Diffusion und vergleichbare Programme dazu zu bringen, in sämtliche generierten Bilder respektive Bildbereiche einen für das menschliche Auge nicht sichtbaren “Marker” einzufügen. Da ich kein Computerfreak oder Techniker bin, habe ich natürlich keine Ahnung davon, wie so etwas zu bewerkstelligen sein sollte. Doch ich stelle es mir zumindest umsetzbar vor: Vielleicht ließe sich eine gewisse, ansonsten unübliche und nur für andere Computerprogramme klar erkennbare Anordnung von Pixeln im Bild realisieren, anhand derer sich generierte Bilder identifizieren lassen? Aber, wie gesagt, ich bin kein Technik-Freak. Meine Disziplin ist die künstlerisch kaschierte Dampfplauderei.

Deshalb rege ich dazu an, dass sich hierzu einmal ein paar professionelle Künstler mit ein paar professionellen Programmier-Freaks an einen Tisch setzen und etwas Schlaues ausbaldovern, mit dem letztendlich alle gut leben können. Mir als Künstler wäre wichtig, dass der wie auch immer geartete “Marker” für das bloße Auge nicht sichtbar ist. Und ansonsten halt nur, dass er da ist. Irgendwie in diesem ganzen Kram aus Code und digitalen Zeichen versteckt. Tief im Inneren dieser neu generierten Bilderwelten soll er stecken und auf Anfrage die Auskunft geben: Ich bin nicht wirklich wirklich.

Apropos wirklich .. als ich vor wirklich vielen Jahren, als junger Mann, einige Zeit zusammen mit vielen anderen jungen Herren meines Alters in einer Kaserne verbrachte, war es dort üblich, dass jene, die ihren Spint nicht abgeschlossen hatten, bestraft wurden. Der Tatbestand lautete “Verleitung zum Kameradendiebstahl”. - Selbstverständlich war allen klar, dass man seine Kameraden nicht bestiehlt. Und auch jenseits der Kaserne galt Diebstahl natürlich als verboten. Keine Frage. Und doch ging es hier nicht nur um die Lehre, auf seine eigenen Sachen zu achten, sondern auch darum, Verantwortung für Dritte zu übernehmen. Man wusste um die Verführbarkeit der menschlichen Seele. Und um schwache Momente. Folglich war auch wichtig, andere Menschen nicht zu verführen: und darauf zu achten, sie vor schwachen Momenten zu bewahren.

Warum ich diese kleine Anekdote hier zum Besten gebe? Weil sie von Verführbarkeit berichtet. Und weil ich das Programm Stable Diffusion an dieser Stelle davor warnen muss, sich in künftigen Entwicklungsstufen der “Verführung zum Deepfake” schuldig zu machen.

- THIS IS NOT - 168

Cloud Computing Trend / Social Credit System

Das war es zwar nun mit den wesentlichen Kritikpunkten zu Stable Diffusion sowie AI-Bildprogrammen ganz allgemein, doch bevor ich den unerquicklichem Abschnitt zum Thema Kritik nun endgültig zum Abschuss bringe, möchte ich noch auf einen weiteren Punkt eingehen. Dieser mag im Rahmen der vorliegenden Arbeit zwar etwas sehr abstrakt erscheinen, doch ist er mir wenigstens einen Hinweis wert. Denn nicht erst mit Blick auf China fällt auf, dass mit zunehmender Technologisierung eine besorgniserregende Entwicklung einsetzt, mit der mehr und mehr auch der komplette Alltag unseres doch eigentlich “freien” Lebens in einem Maße überwacht wird, das wir in eigenem Interesse im Auge behalten sollten.

Digitale Technologien, die mittlerweile auf gewaltige Rechenleistungen zugreifen können, werden dazu genutzt, selbst alltägliche Handlungen und private Kommunikation zu überwachen. Der bloße Umstand an sich ist zwar, wie ich bereits zum Stichpunkt Datenschutz erwähnte, nicht neu, doch die wie es scheint galoppierende Ausweitung der Überwachung darf durchaus kritisch hinterfragt werden. Denn auch in Europa, Kanada, England und den USA werden mittlerweile Stimmen laut, die die Einführung eines sogenannten “Social Credit System” nach chinesischem Vorbild für eine eigentlich ganz gute Idee zur Disziplinierung der Bürger halten. - Die Folge solcher Bestrebungen könnte in einer staatlichen Überwachung sämtlicher online-Aktivitäten gipfeln: In der Konsequenz bestünde deren Ergebnis beispielsweise darin, dass ein im Eifer einer hitzigen Debatte etwas schroff formulierter Beitrag dazu führen könnte, dass Sie einen Punktabzug in Ihrem “Social Credit Score” erhalten. Und das wiederum hätte eventuell zur Folge, dass Ihnen zur Strafe die Nutzung öffentlicher Verkehrsmittel verwehrt bleibt. Sie finden, das hört sich gruselig an? Auf jeden Fall! Willkommen in der chinesischen Wirklichkeit.

Doch auch ohne die konkrete Einführung eines sogenannten Social Credit System erleben wir bereits in den letzten Jahren eine zuvor im westlichen Kulturkreis ungeahnte Freude an Denunziation und Zensur. Im Volksmund ist diesbezüglich sogar schon von “Cancel Culture” die Rede. Und, ob man diesen Begriff nun mag oder nicht: Aktuell erfahren wir ein absolutes Allzeithoch an Sanktionen und Zensur im digitalen Raum. Beispielsweise im Zuge der hitzigen Auseinandersetzung um die Wahl von Donald Trump zum Präsidenten der Vereinigten Staaten, im erbittert geführten Streit um einen staatlich verordneten Corona-Impfzwang und nun ganz aktuell hinsichtlich zuweilen hitzig und empört geführter Auseinandersetzungen über die Rollen der NATO / USA und England im Russland-Ukraine Krieg: Über allen Debattenbeiträgen, die zu sehr “vom Kurs” abweichen, schwebt das Damoklesschwert der Zensur. Unter anderem die unlängst von Elon Musk veröffentlichen “Twitter-Files” vermitteln einen ersten Eindruck vom mittlerweile nahtlos eingeschliffenen Zusammenspiel von Politik und Sozialen Medien.

Ich bitte zu beachten, dass ich mich hier zu den erwähnten Beispielen in keiner Art und Weise inhaltlich positionieren möchte. Denn mir geht es an dieser Stelle absolut nicht um diesbezügliche Auseinandersetzung: Hier geht es nicht um die Frage, was warum sanktioniert wurde und wird, sondern lediglich um die Beobachtung, dass zunehmend sanktioniert wird. Für den Fall, dass sich dieser Versuch einer neutralen Meta-Betrachtung nicht hinreichend vermitteln sollte, bitte ich dies entschuldigend dennoch zur Kenntnis zu nehmen.

Ungeachtet jeweiliger Inhalte ließ sich beobachten, dass etliche, zum Teil enorm reichweitenstarke Social Media Accounts diverser Akteure der politisch-kulturellen Debatte mit Zensurmaßnahmen belegt oder gleich komplett gelöscht wurden. - Tatsächlich bemerkenswert an diesen Zensurmaßnahmen fand ich

- THIS IS NOT - 169

die Beobachtung, dass Personen, deren Accounts auf einer Plattform gesperrt wurden, binnen kurzer Zeit oft auch von anderen Plattformen verschwanden. So entstand der Eindruck, dass die jeweiligen Betreiber eventuell sogar auf eine Art gemeinsame “Schwarze-Liste” zurückgreifen können. Wer also beispielsweise auf Twitter gesperrt wurde, der verschwand nur kurze Zeit später auch von facebook und youtube. Der beschriebene Vorgang fand seine Beschreibung im schönen neuen Wort “Deplatforming”

Wikipedia schreibt dazu:

“Deplatforming (eng: „die Plattform nehmen“), auch no-platforming bezeichnet eine Strategie zum dauerhaften Ausschluss einzelner Personen oder Gruppen von (zumeist digitalen) Plattformen wie sozialen Netzwerken, Online-Dienstleistern oder Providern. Dies geschieht in der Regel aufgrund von wiederholter Missachtung festgelegter Regeln, kann aber auch ohne Nennung von Gründen oder auf öffentlichen Druck oder Druck von Werbekunden hin geschehen. Konkret geht der Ausschluss einher mit der Löschung oder Sperrung der Konten, Profile oder Kanäle, also aller bzw. möglichst vieler Plattformen, die die Person oder Gruppe braucht, „um berühmt und damit relevant zu bleiben““

Interessant ist hierzu auch, dass sich besagtes “Deplatfroming” nicht nur auf persönliche Online-Präsenzen bezieht, sondern auch ein Abschneiden sämtlicher Zugänge zum Geldverkehr beinhalten kann. Das führt mitunter dazu, dass die betroffenden Personen auch nirgends mehr ein Konto eröffnen können. Kurzum: Es geht um einen so schmerzhaft wie möglichen Angriff auf die Lebensgrundlage der Betroffenen.

Als ein Kind der 80’er Jahre erlebte ich damals eine politische Opposition, die sich gegen die neo-konservative Regierung und gegen Kriege artikulierte. Die Friedensbewegung war seiner Zeit eine große Sache. Und als es in West-Deutschland 1983 zu einer Volkszählung kommen sollte, waren die gesellschaftlichen Proteste derart stark, dass die Zählung zunächst einmal abgesetzt werden musste. Das “Recht auf informationelle Selbstbestimmung” galt damals noch als eine Sache, für die sogar zum Straßenkampf geblasen wurde. - Im Gegensatz dazu bewegt sich die heutige “alternative”- und “kreative” Szene in wohlgefällig affirmativem Einklang mit staatlicher Corporate Governance, wodurch sie ganz massiv dazu beiträgt, staatlich forcierten Instrumenten wie “Deplatforming” politische Legitimität zu verleihen. Nicht zuletzt dadurch erleben wir einen Zustand, in dem “Deplatfroming” sowie Zensurgelüste heutzutage so gut wie keiner wirklichen Kritik ausgesetzt sind. Ich finde das - noch einmal: ungeachtet politischer Orientierung - etwas bizarr. Und geschichtsvergessen. Denn was ist, wenn der politische Wind sich einmal drehen sollte? Wollen wir dann diese von Technokraten eingespielten totalitären Werkzeuge guten Herzens in den Händen irgendwelcher Despoten wissen? - Ich fände das in hohem Maße bedenklich.

Als kleines Beispiel erlaube ich mir hier noch einen Hinweis auf den Kurznachrichtendienst Twitter: Galt Twitter bisher als den sogenannten politisch “Progressiven” verbundener Social-Media Anbieter, so drehte sich mit der Übernahme durch den Milliardär Elon Musk der Wind in eine deutlich andere Richtung. Etliche Accounts, die vormals gesperrt worden waren, kehrten plötzlich wieder zurück. Und im Gegenzug dazu beklagt nun die politische Gegenseite, unter dem Druck möglicher Sanktionierung zu stehen. - Nun ist so ein verhältnismäßig kleiner Social-Media Dienst wie Twitter zwar eigentlich keiner großen Rede wert, doch was, wenn so eine Art Machtverschiebung einmal auf staatlicher Ebene stattfinden sollte? Wäre es im Hinblick darauf nicht ganz grundsätzlich überlegenswert, welche technischen Tools man in die Hände der Macht und der Mächtigen legen möchte: und welche besser nicht? - womit ich dann so langsam auch mal zum Bezug auf das vorliegende Thema komme:

- THIS IS NOT - 170

Denn hier erleben wir, durch die Notwendigkeit der Verarbeitung riesiger Datenmengen stimuliert, einen zunehmenden Trend zum “Cloud-Computing”. Das meint, dass Computerprogramme oder zumindest wesentliche sehr rechenintensive Teile davon, in eine Art “Computer im Internet” ausgelagert werden. Im Zusammenhang mit Stable Diffusion und ähnlichen Programmen werden beispielsweise sehr gerne “Cloud GPUs” (Grafikprozessoren) genutzt. Und mitunter werden sogar gleich die kompletten Programme online ausgeführt. Dadurch benötigt der Nutzer kein Programm mehr auf seinem eigenen Computer, sondern besitzt im Grunde nur noch seine Zugangsdaten zu einem “Computer”, der sich “irgendwo in Internet” befindet.

Jetzt ist dieser Trend natürlich nicht neu. Von Seiten der Industrie wird er damit beworben, dass die Nutzer dadurch räumlich unabhängig bleiben und mit einem sehr einfachen Endgerät von unterschiedlichsten Orten auf “ihren Computer” zugreifen können. Und natürlich wird es auch als ressourcensparend angepriesen, weil ja dadurch nicht mehr jeder Nutzer seinen eigenen fetten Rechner mit eigenem Arbeitsspeicher und eigener Grafikkarte braucht. - “Denken Sie doch an den Klimawandel!” Zudem sind “Cloud-Computer” recht flexibel zu skalieren: Wenn Sie also ausnahmsweise für ein bestimmtes Programm mal etwas mehr Rechenleistung brauchen, dann mieten Sie sich einfach spontan etwas dazu. Ganz einfach. - Doch die Sache hat auch eine Kehrseite. Denn da Ihre Daten dann nicht mehr bei Ihnen liegen, machen Sie sich damit natürlich auch abhängig: nicht nur abhängig von einem stabilen Internetzugang, ohne den dann nichts mehr geht, sondern schlimmstenfalls sogar auch abhängig von den Nutzungsbedingungen des jeweiligen Anbieters. - Und wie flexibel solcherlei “Nutzungsbedingungen” mitunter ausgelegt werden, wurde ja bereits zum Stichpunkt “Deplatforming” angedeutet.

Vom Herumspielen mit Sound-Programmen wie Cubase (DAW /”Digital Audio Workstation”) kenne ich es, dass bestimmte digitale Musikinstrumente, obwohl man dafür bezahlt hat, nicht ohne Onlinezugang gespielt werden können. Das hat mich zwar schon immer gestört, doch da ich das mit der Musik wirkich nur überaus hobbymäßig betreibe, nahm ich es zähneknirschend (und mit schlechtem Gewissen) hin. Anders sieht es da schon mit Programmen aus, die mir wichtiger sind, weil ich sie für meine Produktion brauche. Gehörte ich beispielsweise früher stets zu jenen Zeitgenossen, die immer viel Geld ausgaben, weil sie die neusten Versionen von Photoshop, Lightroom, Illustrator und Indesign auf dem Rechner haben mussten, so fand meine Lust am Shoppen von Adobe-Produkten mit der Einführung der Adobe-Cloud ein jähes Ende. Denn nicht nur, dass man die Programme nun nicht mehr besitzen, sondern nur noch Nutzungsrechte für bestimmte Zeiträume mieten konnte: Im Grunde gehört einem nun also nichts. Nein, man ist auch auf dauerhaften Zugang zum Internet angewiesen, um die Programme aktiviert zu bekommen. Alleine mit seinem geliebten Computer in eine abgelegene Berghütte oder auf eine einsame Insel zu ziehen, um dort in aller Seelenruhe Bilder zu basteln, fällt somit schon mal aus. Und auch, wenn es sich nicht so verhält, dass ich tatsächlich plane, auf eine einsame Insel zu ziehen, so bereitet mir der Gedanke an die zunehmende Abhängigkeit von Big Tech Unternehmen doch einiges Unbehagen. Ganz ehrlich würde ich lieber nur noch mit Kohle auf Papier zeichnen, als mich hier in ein vom Kräfteverhältnis her betrachtet äußerst unausgewogenes Abhängigkeitsverhältnis zu stürzen: und damit einem zunehmenden Trend Vorschub zu leisten, in dem Nutzer den Tech-Unternehmen nach deren Gutdünken komplett ausgeliefert sind. Denn was, wenn die einmal auf die Idee kommen sollten, das sie bestimmte Inhalte nicht mehr sehen wollen? Was, wenn plötzlich aus einem Impuls wie auch immer gearteter Moral heraus, plötzlich bestimmte Darstellungen sanktioniert werden? - Von Adobe wissen wir, dass bisher schon - sehr zum Ärger einiger Stock-Fotografen - beispielsweise der Bearbeitung von Geldscheinen, ein Filter vorgeschoben wurde: Wer immer also ein Foto bearbeiten wollte, auf dem ein paar Geldscheine zu deutlich zu sehen sind, bekam eine automatische Fehlermeldung angezeigt:

- THIS IS NOT - 171

Das Bearbeiten von Banknotenbildern wird in dieser Anwendung nicht unterstützt.”.

Nun mag ein Zensur-Filter im Fall einer Bearbeitung von Banknoten noch durchaus sinnvoll erscheinen, doch was, wenn irgendwann einmal auch die Bearbeitung von bspw. “Nacktheit” unterbunden wird? Im Programm Midjourney, einer Alternative zu Stable Diffusion, wird die Darstellung von “Nacktheit” bereits zensiert. Klassische Akt-Bilder, die ja eigentlich zum Kanon der Bildenden Kunst gehören, sind damit nicht mehr möglich. Und, wer es dennoch zu eifrig versucht, spielt mit der Gefahr, seinen Account komplett gelöscht zu bekommen.

Fand das Arbeiten in der Cloud bisher im überwiegenden Teil im professionellen Bereich statt, so erleben wir momentan - auch durch den unglaublichen Erfolg von AI-Bild-Programmen beflügelt - , dass zunehmend “ganz normale Nutzer”, Amateure und Semi-Professionelle Kreative, an die Nutzung von Cloud-Angeboten gewöhnt werden. Die neuen Tools, alles tolle Spielzeuge, leisten einer Entwicklung Vorschub, in der es auch im normalen Consumer-Bereich mehr und mehr als normal akzeptiert wird, dass sich genutzte Programme gar nicht mehr auf dem eigenen Rechner befinden müssen. Die Menschen gewöhnen sich spielerisch daran, dass sie zu Hause eigentlich gar keinen “großen Computer” mehr brauchen und geben damit auch einen Teil ihrer Autonomie in puncto Möglichkeiten selbstbestimmten Handelns auf. Zwar werden diese technischen Perspektiven vielerorten gefeiert, und selbstverständlich freuen sich die Betreiber gigantischer Rechenzentren wie bspw Google und Amazon darüber, dass ihre riesigen Ressourcen nun immer effektiver zum Einsatz kommen, doch die Frage, ob dies eine gesamtgesellschaftlich wünschenswerte Entwicklung ist, muss auch hier gestellt werden. Denn immerhin setzt man sich damit als Gesellschaft auch zunehmend der Verfügungsgewalt potenziell ideologisch bewegter Technokraten aus.

Von daher, auch wenn Sie mich nun eventuell für etwas paranoid halten mögen: Vorsicht ist besser als Nachsicht!

Gerade erst, als ich diese Zeilen schrieb, wurde eine Gruppe junger Kreativer, die Geld dafür sammelte, eine neues open-source Bildmodell für Stable Diffusion namens “Unstable Diffusion” trainieren zu können, aufgrund moralischer Bedenken von der Geldsammel-Plattform Kickstarter verbannt. Dass Kickstarter kein seriöser Finanzpartner ist, ist leider nicht neu. Denn bereits in der Vergangenheit wurden Projekte zensiert und damit Auszahlungen vorbehalten, die den verantwortlichen Technokraten als missliebig erschienen. - So etwas passiert leider, wenn man politischen Ideologen zu viel technische

- THIS IS NOT - 172

Macht in die Hände gib. Dass sich die Zensur-Wut von Kickstarter nun jedoch auch gegen Kunst- / Kulturprojekte richtet, zeigt ein neues Niveau an. - Immerhin wurden dem “Unstable Diffusion” Projekt hier rund 30.000 Dollar hinterzogen, was ja nun wirklich keine Kleinigkeit ist. - Sollte es den Kickstarter Ideologen etwa tatsächich darum gehen, über die Sanktion von Kunstprojekten, politischen Einfluss auf künftige Bilderwelten nehmen zu können? Und, was hat es mit dem in der Veröffentlichung erwähnten “Spirit” auf sich?

- THIS IS NOT - 173
“.. violating the letter of spirit ..”

Nur kurze Zeit später wurde “Unstable Diffusion” dann, ebenfalls aufgrund nicht näher ausgeführter, ominöser Vorbehalte, vom Social-Payment-Service-Anbieter “Patreon” gecancelt.

Wem angesichts solcher Vorfälle nicht allmählich zu dämmern beginnt, dass eine zumindest potenzielle Gefahr darin bestehen könnte, Big Tech Unternehmen zu viel Macht zuzubiligen, der ist, pardon. naiv. Und er läuft Gefahr, in einer Welt aufzuwachen, in der bei Punktabzügen im Social Credit System für die Betroffenen Nutzer auch bestimmte in der Cloud befindliche Programme gesperrt werden.

Deshalb rate ich auch dazu, sich etwas bewusster im Internet zu bewegen. Es spricht natürlich absolut nichts dagegen, eine gelungene Arbeit in einer Cloud GPU rendern zu lassen. Aber man sollte, sofern noch möglich, gleichsam darauf achten, sich seine autonome Produktionsfähigkeit nicht völlig nehmen zu lassen.

- THIS IS NOT - 174
175

2.2 Anwendung

Nachdem sie sich nun einiges zu möglichen Kritikpunkten und Gefahren in Bezug auf Stable Diffusion und ähnliche Programme zu Gemüte führen mussten, komme ich nun endlich zum etwas erquicklicheren Teil dieser kleinen Abhandlung!

Zuvor jedoch schnell noch ein kurzer Hinweis: Selbstverständlich ist es gerade für künstlerisch “wenig bewanderte Personen” sehr einfach, mit AI-Programmen ein paar erste, sehr beeindruckende Resultate zu erzielen. Doch sobald die Ansprüche an die eigenen Bilder etwas spezieller werden, beispielsweise, weil es darum geht, ein professionelle Niveau zu erreichen, wird man schnell feststellen, wie schnell AI-Programme an ihre Grenzen stoßen. Deshalb ist es meinem Eindruck nach gerade im Bereich anspruchsvollerer Arbeiten unabdingbar, den Einsatz von AI-Bildprogrammen mit herkömmlichen Tools und dem dazugehörigen Wissen ums Handwerk zu kombinieren.

Anwendungsbeispiele von Stable Diffusion & Co für Kunst und Kultur

Unbegrenzt kostenlos lizenzfreies Bildmaterial !!

Ehrlich gesagt wundere ich mich darüber, dass Stable Diffusion und ähnliche Programme zwar bisher in der Kunstwelt für einige Aufregung sorgten, jedoch in der Medien- und der Blogger-Szene - so weit ich es mitbekam - bisher für keinerlei Furore. Dabei kann das Programm doch gerade hier dazu beitragen, so manche lästige Suche nach passendem Bildmaterial zur Illustration eines Beitrags zu erübrigen. Und das sogar kostenfrei! Denn überall dort, wo 2D-Bildmaterial ohne all zu große Ansprüche benötigt wird, kann Stable Diffusion Abhilfe schaffen. Dabei könnte es sich beispielsweise um einen flotten Eyecatcher für einen Beitrag handeln oder daum, zu lange Texte mit netten Illustrationen aufzulockern. Hier sind dem Ideenreichtum kaum Grenzen gesetzt.

Zwar finden sich gerade für Blogger mit wenig Geld bereits jetzt schon etliche Angebote im Internet, die kosten- und lizenzfreies Bildmaterial offerieren - die Angebote vom Smithsonian Open Access und der Metmuseum Collection kommen hinzu - doch, ganz ehrlich: Die Suche gestaltet sich oft unangenehm umständlich, langwierig und bringt nicht immer ein optimales Ergebnis. Kurzum, es ist so eine Sache, auf die wirklich niemand Lust haben muss, nachdem man sich zuvor schon Mühe gab, einen guten Beitrag zu tippen. Und nicht selten verhält es sich dabei so, dass besagte Lust mit nahenden Abgabetermin im Rücken deutlich zu schrumpfen beginnt. Doch genau hier kann Stable Diffusion helfen. Denn da die Bilder nach persönlichen Wünschen generiert werden, sind sie nicht nur viel individueller, sondern auch eine umständliche Suche danach entfällt. Das spart Zeit und mitunter auch Nerven.

Hat beispielsweise zukünftig jemand vor, in einem Politik-Beitrag über eine der im ersten Teil der vorliegenden Arbeit bebilderten prominenten Personen zu berichten, so kann er sich einfach die im dritten Teil frei zur Verfügung gestellten Dateien herunterladen und hierzu beliebig viel eigenes Bildmaterial generieren.

Doch nicht nur für kleine Blogger ist die Sache interessant, selbst im deutschen Staatsfernsehen, dem “Öffentlich Rechtlichen Rundfunk”, werden schon AI-generierte Bilder genutzt.

- THIS IS NOT - 176

So zeigte beispielsweise die Sendung “ZDF Magazin Royale” vom in Teil 1 bebilderten Modell Jan Böhmermann am 28.10.2022 eine Grafik, die mit der Stabe Diffusion Alternative DALL·E 2 generiert wurde.

Sollte sich die Nutzung von AI-Bild-Programmen also so weiterentwickeln, wie bisher, könnte sie sich tatsächlich zu einem Gamechanger in Bezug auf die Organisation passenden Bildmaterials entwickeln. Und, noch etwas anders könnte womöglich äußerst interessant werden, eine:

Emanzipation der Medien von PR-Bildern

Bisher wurde Bildmaterial prominenter Politiker größtenteils über PR-Berater, Hausfotografen und Agenturen vorselektiert. An die Öffentlichkeit gelangte nur, was für werbewirksam genug befunden wurde, den gewünschten Eindruck zu vermitteln. - Zwar ist allen Medienmachern klar, dass Bilder genau so lügen können, wie Texte, doch sind die meisten Redaktionen gezwungen, die Produktionskosten niedrig zu halten. In Folge dieses finanziellen Zwangs wird häufig auf die Erstellung eigenen Bildmaterials verzichtet und notgedrungen gerne auf entweder kostenfrei gelieferte Bilder oder Agentur-Bilder zurückgegriffen. Beispielsweise vom ebenfalls im ersten Teil bebilderten deutschen Wirtschaftsminister Robert Habeck wissen wir, dass er sich auf Kosten der Steuerzahler für schlappe 400.000,- Euro jährlich einen eigenen Hof-Fotografen hält. Denn, na klar, selbstverständlich möchte er ein entscheidendes Wörtchen dabei mitreden, wie sich seine visuelle Kommunikation gestaltet. Dass diese jedoch inhaltlich nicht immer wirklich mit jedem kritischen Pressebeitrag d’accord gehen muss, versteht sich dabei von selbst. Und so erleben wir momentan einen Zustand, in dem sich inhaltlich kritische Beiträge zu prominenten Personen in nur sehr wenigen Fällen auch über die verwendeten Bilder abbilden. Die Folge dieser Dissonanz besteht darin, dass schriftliche Kritiken oft schon nach kurzer Zeit kaum noch über irgendeine Internetsuche zu finden sind, derweil sich in der Bildersuche zur Person ausschließlich

- THIS IS NOT - 177

Bilder zeigen, die einen ungebrochen positiven Eindruck vermitteln. Dieses gravierende Missverhältnis könnte nun über Programme wie Stable Diffusion und deren selbst generierte Bilder behoben werden.

Ich bitte, gerade diesen Punkt nicht zu unterschätzen. Denn wir wissen, wie wichtig visuelle Kommunikation ist. Hier geht es um nichts geringeres, als die Emanzipation der Bildredaktionen von zuweilen abgrundtief verlogenen Erzeugnissen der Hausfotografen und PR-Agenturen.

Als gutes Beispiel bietet sich diesbezüglich eine google-Bildersuche zum ehemaligen US-Präsidenten Donald Trump an. Denn es gibt wohl kaum einen international prominenten Politiker, zu dem sich bereits beim ersten Überfliegen der Bildersuche ein solch durchwachsenes Bild vermittelt. Und das zurecht. Denn, ob man es mag oder nicht: Der Mann war/ist nun einmal umstritten. Und deshalb ist es nur fair, wenn sich dies auch über eine Bildersuche abbildet. Leider jedoch wird diese Fairness nicht allen Damen und Herren Politikern zu Teil. Deshalb erleben wir momentan noch einen Missstand, in dem uns viel zu viele durchtriebene Halunken und korrupte Gauner aus der Bildersuche des Internet anlächeln, als könne sie kein Wässerchen trüben. - Damit könnte bald Schluss sein.

Die affirmative Bild-Berichterstattung könnte dank AI-Bilderprogrammen einem jähen wie wohlverdienten Ende entgegensehen. Kritische Texte mit für die besprochenen Personen unangenehmen Inhalten könnten bald auch mit entsprechendem Bildmaterial garniert werden. Sagen Sie auf wiedersehen zu den stets gewinnend lächelnden Damen und Herren, es erwarten sie stattdessen mürrische Grantler, verschlagene Blicke und selbstverliebte Gockel. - Das verrückte an dieser Situation wäre dann, und damit meine ich hier buchstäblich verrückt, dass so manche generierte Bilder, die ihrem Entstehungsprozess nach “nicht echt” sind, womöglich das Potenzial dazu haben, realen Gegebenheiten näher zu kommen,

- THIS IS NOT - 178

als es die realen Bilder der PR-Profis für teuer Geld vorgaukeln.

Bei einer Nutzung von AI-Programmen zur Illustration redaktioneller Beiträge geht es also nicht nur darum, sich über kostenfreies eigenes Bildmaterial aus dem Joch der Bildagenturen befreien zu können, sondern vor allem und ganz maßgeblich auch um inhaltliche Emanzipation.

Ok, und jetzt abschließend noch etwas zu den Künstlern, Illustratoren und Fotografen, die hier vielleicht ihre Jobs bedroht sehen: Liebe Leute, macht Euch keine Sorgen, sondern betrachtet die Situation als Eure große Chance!

Die meisten Betreiber kleiner Blogs mit geringen Einnahmen hatten bisher eh kaum Geld, um in passendes Bildmaterial zu investieren. Und da es den meisten dieser Medienmacher vornehmlich um ihre Inhalte geht, werden sie wohl auch künftig kaum Zeit damit verbringen wollen, neue Computerprogramme zu erlernen. Hier ist Eure Chance, Euch von ausbeuterischen Bildagenturen zu lösen (gerade einmal 15% pro Bild bei Shutterstock - ich komme noch immer nicht darüber hinweg!), indem Ihr Euch themenspezifisch eigene Bilder-Pools generiert. Da Ihr mögliche Kunden am besten kennt, seid Ihr dazu in der Lage, Euch viel besser auf deren Bedürfnisse einzustellen, als große Stock-Agenturen, die mit verwirrend vielem Material um sich werfen. Zudem könnt Ihr die größeren Agenturen preislich unterbieten und vermutlich noch immer mehr erzielen, als wenn Ihr Eure Bilder dort anbietet: bzw. sie in deren Pool verschimmeln lasst. Und, auch größere Medienhäuser werden weder Bildredaktion noch Grafikabteilung feuern, nur weil ein paar neue Tools die Bildproduktion angenehmer machen. Denn last but not least sind es noch immer nur Tools. Und bei nur etwas höherem Anspruch kommt kaum ein AI-Bild ohne Nachbearbeitung aus. Von daher: auf ins Gefecht - im positivsten Sinn - wir sehen spannenden Zeiten entgegen!

Ein gutes Beispiel hierzu wäre die Arbeit des finnischen Fotografen Antti Karppinen. Er nimmt die neuen technischen Möglichkeiten an, indem er Modelldateien eigener Fotos erstellt.

AI-Modelldateien eigener Fotos erstellen

Das Foto Branchen-Blog Peta Pixel berichtet über Karppinens sehr interessanten Ansatz. Danach schießt Karppinen zunächst ein paar Fotos für einen Kunden, die dann Grundlage eines eigens generierten AI-Datensatzes werden. Karppinen berichtet hierzu:

„Dieses Projekt begann mit dem Fotografieren von Modellen für Unterrichtsmaterial. Dieses Lehrmaterial wird der KI zugeführt und ein Modell der fotografierten Person erstellt, das dann im Rahmen der Bildproduktion verwendet werden kann“

„Kurz gesagt, jetzt können Sie eine fotografierte Person mit KI-Unterstützung an jeden Ort und in jede gewünschte Kleidung bringen. Wir schaffen gewissermaßen eine brandneue KI-Modellbank.“

„Die Möglichkeiten der KI enden hier natürlich nicht, denn sobald die „Maschine“ erstellt ist, können wir kostengünstig mehr Bilder für die Anforderungen des Projekts produzieren“

„Wenn Sie beispielsweise einen Valentinstagspost mit einem Bild erstellen möchten, können Sie das Lehrmaterial von jemandem mitnehmen und mit seinem Bild ein völlig einzigartiges Bild zu diesem Thema

- THIS IS NOT - 179

erstellen. - Niemand muss sich beeilen, fotografiert zu werden, das geht alles aus dem Homeoffice.“

screenshot https://petapixel.com/2022/12/21/photos-used-to-generate-ai-images-for-client-so-photographer-never-shoots-again/

Wenn man sich die Qualität von Karppinens Bildern anschaut, wird schnell klar, dass es hier nicht mit dem Generieren ein paar einfacher Modell-Dateien getan ist, sondern noch einiges mehr an Handerkszeug dazu gehört, um das Resultat in professionelles Bildmaterial zu verwandeln. Doch es geht ja, wie vormals bereits erwähnt, auch nicht darum, Kreative durch AI zu ersetzen, sondern ihre Produktion zu beflügeln.

Und Karppinen ist bei weitem nicht der einzige Fotograf, der AI-Programme für seine Produktion entdeckte. Denn abgesehen von der Möglichkeit, sich gleich komplett eigene Modell-Dateien zu generieren, bieten diese noch eine Menge weiterer spannender Möglichkeiten zur Fotobearbeitung.

- THIS IS NOT - 180

Fotobearbeitung

Auch jenseits des Generierens eigener Modell-Dateien bieten AI-Programme spannende Möglichkeiten für Fotografen. So lassen sich beispielsweise über eine “inpaint”-Funktion gewünschte Bereiche in einem eigenen Foto maskieren (markieren) und dann vom AI-Programm beliebig neu generieren. Dabei kann es sowohl darum gehen, kleine “Fehler” zu beheben, indem man unerwünschte Objekte aus dem Bild verschwinden lässt, oder darum, dem Bild neue Objekte hinzu zu fügen. Selbstverständlich ging so etwas mit den entsprechenden Bildbearbeitungsprogrammen auch schon früher. Doch nun geht es gerade für Amateure etwas einfacher und ermöglicht zudem mehr spielerischen Freiraum.

Eine weitere Option zur “Bildbearbeitung” besteht darin, das gewünschte Foto über eine “image to image” Funktion gleich komplett neu generieren zu lassen. Hierbei ist das eigene Foto dann nur das Ausgangsmaterial, dass sich das Programm zur Vorlage nimmt, um anhand dessen unter Berücksichtigung der Texteingaben ein komplett neues Bild zu berechnen. So lassen sich beispielsweise komplette Licht-Stimmungen im Bild völlig verändern. Es lassen sich ebenso gewünschte Bildelemente Hinzufügen oder völlig neue Umgebungen generieren. Und, apropos Umgebung: Selbstverständlich besteht auch die Möglichkeit, Studionaufnahmen vor einem Greenscreen anzufertigen, die Modelle freizustellen und sich nur die passenden Hintergründe in Stable Diffusion generieren zu lassen.

Als ich Stable Diffusion zum ersten Mal nutzte, hatte ich die vielseitige Einsetzbarkeit dieses Tools noch gar nicht im Blick. Ich war einfach nur froh, ein Programm gefunden zu haben, dass mir auf Grundlage einiger Stichpunkte beliebig viele abstrakte Muster generierte, die ich in Fotos weiterverarbeiten konnte. Die Muster nutzte ich jedoch nicht als Hintergründe, sondern um sie - wie eine Projektion - als zusätzliche Ebene über das zuvor fotografierte Modell zu legen. - Leider kann ich hiervon kein Beispielbild veröffentlichen, aber stellen Sie sich einfach vor, Sie würden Ihr Modell beim Fotografieren mit einem Bild aus einem Diaprojektor oder Beamer anstrahlen. Dann würde sich das Bild des Projektors im Foto auf der Haut des Modells abbilden. Dank meiner zuvor generierten Muster konnte ich einen ähnlichen Effekt nun in der Nachbearbeitung digital erzeugen und hatte dabei sogar noch eine große Auswahl an zur Verfügung stehenden Mustern.

Interessant in Zusammenhang mit dem Thema Fotografie könnte auch sein, dass es für Photoshop mittlerweile ein kostenfreies Stable Diffusion Plugin gibt, mit dem sich Bilder direkt in Photoshop generieren lassen.

screenshot https://youtu.be/XdctF1uTLBo

Concept Art

Weil es gerade noch um “abstrakte Flächen” ging: Gerade der Hang zur Abstraktion macht Stable Diffusion zu einem wirklich starken Werkzeug für Leute, die an Konzepten arbeiten oder einfach nur nach Inspiration suchen.

Da Stable Diffusion, wie Sie am Anfang von Teil 2 erfahren konnten, wirklich völlig sinnbefreit generiert, ohne genau genommen “zu wissen” was es darstellt, fördert es teilweise wirklich sehr spannende abstrakte Ergebnisse zu Tage. Sicherlich nichts, worauf man als Mensch mit viel Fantasie nicht auch kommen könnte, dafür aber in geraumen Mengen und sehr kurzer Zeit. Deshalb lässt sich das Programm ganz hervorragend als der Ideenfindung dienliches “Brainstorming-Tool” nutzen, bei dem es nicht nur um Produktdesign, sondern auch um einzelne Bildelemente gehen kann. - Als kleines Beispiel dazu rufen Sie sich bitte noch einmal die Kopfbedeckungen der Modelle Björn Höcke (S. 53) und Christian Lindner (S.83-85) in Erinnerung.

Gerade am Modell Höcke sieht man sehr anschaulich illustriert, wie Stable Diffusion auf unterschiedlichste Bilder seines Pools zum Thema “Kopfbedeckung” zurückgreift und diese ohne jede “inhaltliche Kenntnis” zu einem neuen Resultat zusammensetzt. Das mag für Künstler, die nach dem Eindruck realistischer Analogfotografie streben, zwar etwas arg verwunderlich anmuten, doch für Kreative, die nach Ideen zum Zeichnen oder Malen suchen, kann es sich als wahre Fundgrube an Inspiration entpuppen: gerade dann, wenn es auch mal etwas surreal werden darf.

Doch auch jenseits meines persönlichen Faibles für wundersame Formgebung entfaltet Stable Diffusion seine Stärken. Als kleines Beispiel erlaube ich mir hier einen Hinweis auf einen Facebook-Beitrag von Jos Morales, der Stable Diffusion nutze, um damit Designs für Computergehäuse zu erstellen.

https://www.facebook.com/reel/878407809872143 und https://www.facebook.com/power11j

- THIS IS NOT - 183

Nachdem es bisher maßgeblich um Einzelbilder/Skizzen/Entwürfe ging, erlaube ich mir nun, Ihr geneigtes Augenmerk auf Bildsequenzen respektive das Bewegtbild zu lenken. Denn wie bereits im Absatz zum Thema Deepfake angedeutet, bietet sich Stable Diffusion auch als Tool zur Video-Erzeugung und Bearbeitung an. Dies vor allem deshalb, weil sich mittels SD auch für Amateure wirklich spannende Animationen erstellen lassen, für deren Umsetzung man ohne das Programm einiges an Expertise und technisches Know How aufbringen müsste.

Wenn wir einmal annehmen, dass es für eine sendefähige Bewegtbildsequenz, beispielsweise ein Musikvideo, 30 Einzelbilder pro Sekunde (Bildrate/frames per second) braucht, dann ist gut vorzustellen, wie viel Arbeit es noch vor einigen Jahren bedurfte, um ein komplettes Musikvideo zu zeichnen und zu animieren. Für die Erstellung solch eines Videos in einer Länge von beispielsweise 5 Minuten, hätten 9.000 einzelne Zeichnungen angefertigt werden und hinterher in einem passenden Programm zu einem Film zusammengefügt werden müssen. - Angesichts dieses erheblichen Arbeitsaufwandes wird schnell klar, weshalb animierte Videos bisher maßgeblich bereits etablierten professionellen Künstlern , beziehungsweise solchen, mit dem nötigen finanziellen Hintergrund, vorbehalten waren. Doch da Dank Stable Diffusion der Arbeitsaufwand zum Erstellen von Animationsfilmen deutlich sinkt, können sich nun auch Kreative mit kleinerem Budget animierte Videos entweder erstellen lassen oder bei etwas Zeit und Muße sogar gleich selbst generieren. - Jedoch sollte bedacht werden, dass es sich hier ebenso, wie in allen anderen Kreativbereichen verhält: Stable Diffusion kann als wertvolles Tool genutzt werden, doch um professionelle Ergebnisse zu erzielen, kommt man um etwas Handwerk in Sachen Nachbearbeitung/Postproduktion kaum herum. Deshalb gehe ich davon aus, dass sich nun eher ein neues, auch für Otto-Normalbürger erschwingliches Angebot seitens pfiffiger Kreativer auftun wird, die bereits hinlänglich mit allen nötigen Programmen (wie bspw. DaVinci Resolve, Premiere Pro, After Effects usw.) vertraut sind, als dass etliche von Bands plötzlich anfangen werden, ihre eigenen animierten Videos zu generieren. Doch, na klar, auch letzteres wäre denkbar. Denn soo kompliziert ist es, sofern es allein um das “rohe Video” gehen soll und man tatsächlich darauf verzichten möchte (oder aus finanziellen Gründen notgedrungen muss), was Postproduktion daraus noch zaubern kann, nicht.

Darum gilt hier auch für absolute Amateure: Nur keine Angst vor der Technik und frisch ans Werk! Die Ergebnisse werden Sie beeindrucken.

Wenn es hier nun um Bildsequenzen/Videos geht, dann bedeutet das nicht, dass Stable Diffusion plötzlich ein Videoschnittprogramm wäre. Denn das ist es nicht. Und es kann auch nichts von dem, was von Programmen in diesem Bereich erwartet werden darf. Doch dafür kann Stable Diffusion etwas, was übliche digitale Videobearbeitungsprogramme nicht können: Es kann eigenständig Inhalte erzeugen. Das tut es zwar nach wie vor in Einzelbildern. Doch da dem Programm wie bereits erwähnt völlig egal ist, ob es nun ein Bild oder wie im obigen Beispiel erwähnt 9.000 generiert, lässt es sich hervorragend zum erstellen von Videoinhalten nutzen.

Bezüglich des Erstellens der gewünschten Inhalte bieten sich in Stable Diffusion unterschiedliche Herangehensweisen, die - sofern ich es richtig verstanden habe - im Grunde alle darauf basieren, dass Bilder über eine “Image to Image” Funktion generiert werden. Das bedeutet, dass SD zusätzlich zur puren Texteingabe noch ein Bild als Information annimmt, anhand dessen dann das neu zu generierende Bild erzeugt wird. Stellen Sie es sich der Einfachheit halber einfach wie eine Art digitales Abpausen

Filme / Videos
- THIS IS NOT - 184

vor. - Also, zunächst wird ein Ausgangsbild bestimmt und SD aufgefordert, davon eine Variation zu generieren. Dazu lässt sich das Maß der Variation im Programm eingeben. Es lassen sich also Bilder generieren, die nur wenige Prozent vom Ausgangsbild abweichen, ihm also sehr nahe kommen, oder solche die schon recht erheblich abweichen. Um flüssige Bildübergänge zu generieren, sollte das neu zu generierende Folgebild meinem Verständnis nach nicht all zu sehr vom Ausgangsbild abweichen. Aber sicherlich ist auch das eine Geschmacksfrage. Denken Sie sich das Ganze einfach als eine Art digitales Daumenkino, bei dem sie angeben können, wie sehr sich die Bilder vom jeweils vorherigen unterscheiden sollen.

Nun haben Sie die Möglichkeit, Ihre Bildsequenz entweder mit einem in Stable Diffusion neu generierten Bild “ganz pur” zu beginnen. Dann Beziehen sich die zu generierenden Bilder jeweils aufeinander. Jedes neu generierte Folgebild wird also zum Ausgangsbild des darauf folgenden. Oder Sie geben Stable Diffusion bereits von Anfang an alle Ausgangsbilder vor, auf die es sich beziehen soll. Um bei unserem kleinen Beispiel eines Musikvideos zu bleiben, wären das 9.000. - Doch, keine Bange, selbstverständlich müssen Sie dazu keine 9.000 Einzelbilder in das Programm laden. Das wäre wirklich etwas übertrieben. Nein, Sie machen es sich einfach und importieren ein fünfminütiges Video, dass Stable Diffusion dann eigenständig in Einzelbilder zerlegt, die dann wiederum als Ausgangsbilder fungieren. - Auf diese Art könnten Sie, beispielsweise in Form von Tanzschritten, Bewegungsabläufe vorgeben, die das Programm übernimmt.

Sollte das jetzt noch nicht reichen, weil es eventuell darum geht, im Musikvideo nicht nur ein generiertes tanzendes “wer-oder- was-auch-immer” zu zeigen, sondern eventuell sogar den Musiker selbst in einem künstlerisch animierten Stil darzustellen, dann wäre auch das kein Problem. Denn dann ließe sich, bevor man das Generieren der 9.000 Einzelbilder startet, zuerst eine eigene Modelldatei unseres Musikers erstellen, mit der sodann die Möglichkeit bestünde, ihn beispielsweise als Superhelden darzustellen. Oder als Prinzen. Oder als Prinzessin. Egal. Die Idee sollte klar sein. - Es lassen sich mit Hilfe eigener Modelldateien auch ganz gezielt Personen darstellen.

Sofern man sich für das Thema interessiert, sollte man sich nicht davon abschrecken lassen, eventuell nur über einen Computer mit recht schwacher Grafikleistung zu verfügen. Denn es findet sich ein kostenfrei nutzbares Programm (“Deforum Notebook”) von google-colab im Internet, mit dem sich sämtliche Rechenleistungen auf die “Cloud Rechner” von google auslagern lassen. Um dieses Angebot nutzen zu können, benötigen Sie jedoch in jedem Fall einen google Account samt “google.drive”. Denn die generierten Bilder / Filme werden hier nicht auf Ihrem Computer, sondern in Ihrem “google drive” gespeichert, von wo aus Sie sie im Bedarfsfall jederzeit problemlos herunterladen können.

Abschließend erlaube ich mir noch darauf hinzuweisen, dass sich die Möglichkeiten Videos zu erstellen, natürlich nicht nur für so lange Beiträge wie im zuvor erwähnten Beispiel anbieten. Denn gerade in den Sozialen-Medien geht es ja manchmal nur darum, ein passendes animiertes GIF zu posten, dass nicht nur mit einer Bildrate von 24 Bildern pro Sekunde auskommt, sondern zudem auch meistens nur wenige Sekunden lang ist. Die hierzu nötigen Einzelbilder lassen sich also sehr viel schneller generieren, als jene, die man für ein ganzes Musikvideo in fünfminütiger Länge benötigt.

Wer sich für das Thema AI generierter Videos interessiert, dem empfehle ich einfach mal einen Blick auf YouTube zu werfen. Dort finden sich wirklich etliche von Tutorials zum Thema, die sachkundig und kompetent sämtliche Wissensstände abdecken.

- THIS IS NOT - 185

Empfehlen möchte ich an dieser Stelle die Kanäle von @OlivioSarikas, @Aitrepreneur, @promptmuse und, für die etwas Programmmier-Kundigeren, @NerdyRodent.

Aber selbstverständlich sind darüber hinaus noch etliche weitere Anbieter im Netz unterwegs, die Sie mit hilfreichem Content zum Thema versorgen.

https://www.youtube.com/@OlivioSarikas

https://www.youtube.com/@Aitrepreneur

https://www.youtube.com/@promptmuse

https://www.youtube.com/@NerdyRodent

https://colab.research.google.com/github/deforum/stable-diffusion/blob/main/Deforum_Stable_Diffusion.ipynb

screenshot rechts: Video Tutorial von Prompt Muse / https://youtu.be/3wQBsFftbv8

https://promptmuse.com/

- THIS IS NOT - 186

Memes

Nachdem nun das Thema Film angesprochen und in diesem Zusammenhang zudem darauf hingewiesen wurde, dass sich gerade im Internet “Geschichten” manchmal auch in sehr viel kürzerer Form animierter GIFs erzählen lassen, komme ich nun auf eine der wohl kürzesten Arten des “Geschichtenerzählens” zu sprechen: dem Verwenden von Memes, die man m.E. durchaus als “Ein-Bild-Geschichten” auffassen kann.

Wikipedia verrät uns zum Thema Meme:

Ein Meme ist ein kreativer Inhalt, der sich vorwiegend im Internet verbreitet. Dieser ist in der Regel humoristisch und aufheiternd, manchmal auch satirisch und entsprechend gesellschaftskritisch. Bei Memes kann es sich um selbsterstellte Werke handeln, aber auch um montierte oder aus dem ursprünglichen Kontext gerissene Fotografien, Zeichnungen, Animationen oder Filme von anderen. Sie tauchen in Form bewegter und unbewegter Bilder, Text, Video oder auch Audio auf, sind also nicht an einen Medientyp gebunden. Meist werden Memes über das Internet weitergereicht, wo sie eine virale Verbreitung erlangen. Memes sind ein bedeutender Teil der Netzkultur.”

Wenn auch wikipedia ausdrücklich darauf hinweist, dass es sich bei Memes auch um Animationen oder gar Filme handeln kann, beziehe ich mich hier auf ein eher konservatives Verständnis, dass Meme maßgeblich als unbewegtes Einzelbild bzw. beschriftetes Einzelbild auffasst. Und mich dünkt, dass genau jetzt der Punkt gekommen ist, um Ihnen zu gestehen, dass die gesamte Ihnen hier vorliegende Arbeit nicht nur vom Memes in ihrer Eigenschaft als Kommunikationsphänomen des Internet inspiriert wurde, sondern auch als Reminiszenz an diese zu verstehen ist. Daher auch der Titel dieser Arbeit: “THIS IS NOT” ist Verweis auf “this is not a meme ..”

Um wenigstens etwas nachvollziehen zu können, wie es zu diesem Fingerzeig kommt, erlaube ich mir abermals einen kleinen Schwenk in die Vergangenheit. Diesmal geht es jedoch nicht ganz so weit zurück: Es trug sich zu im Jahr 2017, mit 48 Lebensjahren hatte ich meine Möglichkeiten einer Karriere als Kunststar bereits durchgespielt und mit etwas Verspätung fast das Ende meiner Pubertät erreicht. In Deutschland erlebten wir gerade die ersten größeren Vorläufer dessen, was uns die aktuell so politisch bewegten Zeiten ankündigen sollte. Denn unter ihrem damaligen Justizminister Heiko Maas startete die Sozialdemokratische Partei gerade weiteren großen Angriff auf die Meinungsfreiheit im Internet.

Zusammen mit der ehemaligen Denunziantin der Staatssicherheit der DDR, Anetta Khane (Modell 09/ S.58), sowie ihrer mit Millionen an Steuergeldern großgezogenen “NGO” Amadeu Antonio Stiftung samt einiger parteinaher “Internet-Experten” versuchte man, den juristisch nicht greifbaren

- THIS IS NOT - 188

Begriff “Hate Speech” populär zu machen. Ziel war es, darüber juristisch nicht angreifbare, doch politisch missliebige Äußerungen in den Sozialen Medien sanktionieren zu können. - Die politische Debatte rund um dieses Thema war so interessant, dass ich mir damals sogar erlaubte, zur Erinnerung daran ein kleines Dossier (260 Seiten) mit ausgesuchten Beiträgen zu erstellen. Es trägt den Titel “Das M#AAS Syndrom” und Sie finden es kostenfrei im Internet unter:

https://issuu.com/edmund-piper/docs/m-aas-syndrom

Da ich mich zu dieser Zeit recht intensiv mit dem Thema beschäftigt hatte beschloss ich, im Anschluss an das Dossier eine Serie politischer Memes zu gestalten, die dazu einladen sollten, sich Gedanken über unsere “Freiheitlich Demokratische Grundordnung” zu machen. Ursprünglich hatte ich sogar mit dem Gedanken geliebäugelt, diese Memes tatsächlich einmal in der “realen Welt” auszustellen und so dem arrivierten Kunstbetrieb über die politischen Inhalte hinaus auch etwas Internetkultur näher zu bringen. Doch daraus wurde leider nichts mehr. Denn nachdem ich Unmengen an Beiträgen gelesen und an diversen Diskussionen zum Thema teilgenommen hatte, war die Luft bei mir irgendwie raus. Ich hatte schlicht die Lust verloren, mich hier noch weiter ins Getümmel zu stürzen und beschloss, mich stattdessen lieber erquicklicherer, unpolitischer Freizeitgestaltung zu widmen. So wäre auch die Sache mit den Memes in Vergessenheit geraten, wenn mir nicht eines davon einige Zeit später völlig unverhofft in ein abonniertes Newsfeed gespült worden wäre. Welch eine Überraschung!

Offenbar hatte ein in gewissen Kreisen recht beliebter Blogger das Meme über den Kurznachrichtendienst Twitter verbreitet, wo es ob seiner Reichweite einigen Anklang fand. Wie dieser mir gänzlich unbekannte Herr an meine Arbeit gekommen war, ließ sich für mich nicht nachvollziehen, tut hier aber auch nichts zur Sache. Aufmerksamkeit verdient jedoch der Umstand, dass er nun wegen der Verbreitung eben jenes Memes von einem hochrangigen Funktionär staatlicher deutscher Medien juristisch verfolgt wurde. Das weckte natürlich mein Interesse. Zumal sich der erwähnte Medien-Funktionär, nennen wir ihn Herrn G., von einem im liberalen Milieu nicht unbekannten Kölner Fachanwalt für Urheber- und Medienrecht, nennen wir

- THIS IS NOT - 189

ihn Anwalt K., vertreten ließ. Denn dadurch, dass Anwalt K. über einen längeren Zeitraum als prominentes Mitglied der Piratenpartei fungierte und sich dort sogar um einen Vorstandsposten bemüht hatte, erlangte die Klage auch in Teilen der betreffenden “Online-Gemeinde” einige Beachtung.

Für alle, die mit dem Namen “Piratenpartei” nichts anfangen können: Bei den “Piraten” handelt es sich um eine deutsche Kleinpartei, zu deren Kernthemen einst “das freie Internet” zählte und die sich diesbezüglich dezidiert für Meinungsfreiheit und gegen Zensur aussprach. Am ehesten konnte man diese Partei ursprünglich einem technikaffinen liberalen Milieu zurechnen, was sich im Laufe ihres Bestehens jedoch massiv in Richtung sogenannter “progressiver”/grüner Positionen verschob. - Ich selbst war einige Zeit Mitglied dieser Partei, bis sie sich meinem Empfinden nach derart weit von ihren Gründungsgedanken entfernte, dass wir uns auseinandergelebt hatten und ich ihr schweren Herzens den Rücken kehren musste. - Aber sei es drum. Auf jeden Fall war mir Anwalt K. noch aus meiner Zeit in der Piratenpartei bekannt, wodurch der vorliegende Fall für mich gleich doppelt interessant wurde. Denn augenscheinlich hatte K. schon kurz nach seinem Austritt aus der Piratenpartei eine politische Kehrtwende von 180 Grad hingelegt und war im Eiltempo vom Paulus zum Saulus mutiert: schien er sich doch nun, wie wir es damals bei den Piraten nannten, als “Abmahnanwalt” zu verdingen.

Das Meme, dass Herrn G. so sehr ärgerte, dass er dagegen extra Anwalt K. in den Kampf schickte, zeigt, angelehnt an die Ästehtik deutscher Staatsmedien gestaltet, ein Portrait Gs, das durch ein Zitat ergänzt wird, welches einem seiner Interviews entnommen ist sowie einen Quellnachweis zum erwähnten Zitat-Text. Im Grunde ist es also denkbar harmloser Natur und verbreitet weder “HateSpeech” noch “Fake-News”. Doch offenbar bestand genau darin das Problem von G. Denn im erwähnten Text spricht er sich allem Eindruck nach für eine Form des Journalismus aus, für den Faktentreue womöglich weniger interessant ist, als eine bestimmte “Haltung” zu vertreten:

„Ich glaube, dass man die Leute eher gewinnen kann, wenn im Journalismus eine Haltung vertreten wird, als wenn man da irgendwie einfach nur Fakten angehäuft werden. Das ist in meinen Augen auch überhaupt nicht Journalismus.“

Die hier vertretene Position mag zwar gerade im üppig steuerfinanzierten deutschen Medienapparat nicht unüblich erscheinen, doch war es G in seiner zeitweiligen Funktion als “Projektleiter beim Faktenfinder der ARD-Tagesschau” offenbar unangenehm, sie auch öffentlich vertreten zu müssen. - Jenseits aller Mutmaßungen über die Beweggründe Gs bleibt festzuhalten, dass das beanstandete Meme derart unverfänglich ist, dass sich kaum Wege fanden, es zu unterbinden. Was also tun??

Da sich im Grunde keine Angriffspunkte gegen das Meme fanden, beschlossen G und sein gewiefter Anwalt K dem Meme juristisch über das Thema Bildrechte habhaft zu werden. Es wurde behauptet, dass sich G mündlich hatte sämtliche Rechte am Foto (ein von einem seiner freien Mitarbeiter kostenfrei erstellter Schnappschuss) übetragen lassen, weshalb das Meme nun einen Verstoß gegen die Nutzungsrechte Gs darstelle. - Als Freund der Internetkultur empfinde ich das natürlich als ein hanebüchenes Unterfangen. Doch nichtsdestotrotz gab sich Anwalt K dafür her, dem ahnungslosen Blogger eine entsprechende Abmahung zukommen zu lassen, in welcher er - vermutlich um die Kosten des Bloggers in die Höhe zu treiben - einen Streitwert von 6.000,- Euro bestimmte. Zusätzlich soll er angeblich auch damit gedroht haben, allein für die “Adressermittlung” des Bloggers weitere “962,– zuzüglich 19 % Umsatzsteuer“ in Rechnung zu stellen. - Als Vergleich: Gemeinhin kostet eine amtliche Adressauskunft so um die 15 Euro, und falls Anwälte etwas daran verdienen wollen, können diese Kosten auch schon

- THIS IS NOT - 190

mal auf üppige 80,- Euro klettern: aber auf insg. über 1.000,- (eintausend!) Euro?! Das ist frech. Und es lässt eigentlich nur noch die Annahme zu, dass es hier von Anfang an weniger um die Klärung eines rechtlichen Problems ging, als viel eher um das Unterfangen, eine missliebige politische Debatte durch Kostenexplosion auf Seiten der Gegner zu unterbinden.

Zwar verhält es sich so, dass ich persönlich den Umstand, Rechtsmittel weniger der Rechtsfindung dienlich einzulegen, denn maßgeblich um finanziellen Druck auszuüben, als Missbrauch empfinde: Doch unüblich ist solch ein Prozedere, egal wie moralisch anrüchig es auch immer erscheinen möge, vermutlich keinesfalls. Auch wenn der vorliegende Fall letztendlich so ausging, dass Anwalt K mit seinem Angriff gegen den Blogger, zuerst vor dem Amtsgericht und dann in der eigens eingelegten Berufung noch einmal vor dem Landgericht, gleich einen doppelten Bauchklatscher hinlegte, ändert das am grundsätzlichen Problem skrupelloser “Abmahnanwälte” nichts. Hätte das maßgeblich auf finanziellen Schaden zielende Treiben jemanden anderen als den hier erwähnten Blogger getroffen, jemanden mit geringeren finanziellen Ressourcen und daraus resultierend auch weniger versiertem Rechtsbeistand, würde Anwalt Ks Vorgehen seine Wirkung vermutlich nicht verfehlt haben. Dann hieße es:

“Mission erfüllt, Meme-Verbreiter finanziell ruiniert!”

Ich gab diese Begebenheit hier nicht allein deshalb zum Besten, um etwas in Erinnerungen zu schwelgen. Nein. Mir geht es um den Hinweis, dass mächtige Funktions- und Würdenträger nicht unbedingt dafür berühmt sind, mit einem Übermaß von Humor auf kritische Memes zu reagieren. Darum rate ich an dieser Stelle eindringlich dazu, windigem Treiben geldgeiler Abmahnanwälte von vorn herein dadurch einen Riegel vorzuschieben, die Möglichkeit einer Abmahnung über angebliche Bild-Nutzungsrechte auszuschließen: indem man sich - tataa! -einfach eigenes Bildmaterial generiert. - Und damit wäre ich dann, lange Rede kurzer Sinn, endlich nicht nur beim Thema, sondern gleich auch am Ende dieses ausschweifenden Absatzes angelangt:

Sollte es Sie gelüsten ein Meme zu basteln und Sie zeitgleich wenig Lust auf mögliche kostspielige juristische Auseinandersetzungen haben, dann schalten sie den politischen Missbrauch von Urheberrechtsklagen zur Meinungsunterdrückung von vornherein dadurch aus, dass sie Ihr eigenes Bildmaterial verwenden.

Hier eröffnen Programme wie Stable Diffusion eine neue Perspektive. Denn Stable Diffusion eignet sich ganz wunderbar dazu, Bildmaterial für Memes zu generieren! Beispielbild:

Twitter screenshot vom 15.01.2023 twitter.com/rasenspiesser/status/1187836230328819713

digital generierte Bilder in analog ..

Selbstverständlich lassen sich in Stable Diffusion erzeugte Bilder in Zeitungen, Zeitschriften und Kataloge drucken. Und nachdem es bisher schon um die Bearbeitung von Fotos ging, muss vermutlich nicht extra erwähnt werden, dass sich die generierten Bilder natürlich auch als Fotos ausgeben lassen. Eine extra-Funktion des Programms ermöglicht es, die Bilder “groß zu rechnen”, so dass man sie nicht nur über den heimischen Drucker, sondern auch wie herkömmliche Digitalfotos auf Fotopapier reproduzieren lassen kann.

Ebenfalls denkbar wäre es im Zusammenhang mit dem Thema Fotografie aber auch, die Bilder über eines der im Fotobereich beliebten “Edeldruckverfahren” zu verarbeiten. Für Fotografen, die mit traditionellem Handwerk vertraut sind, stelle ich mir gerade hier die Möglichkeit des Zusammenspiels von in passender Optik generierten Bildern und hochwertiger alter Technik sehr spannend vor. Als “fotomechanische Druckverfahren” bieten sich dazu beispielsweise Heliogravure und Gummidruck (Gummibichromatverfahren) an. - Da beide Verfahren jedoch mit dem Einsatz diverser Chemikalien zu tun haben und deshalb durchaus auch ein gesundheitliches Risiko mit sich bringen können, empfiehlt sich für alle Interessierten, die nicht über die nötige technische Ausrüstung zur sicheren Umsetzung verfügen, eher die Nutzung von lichtempfindlichem “Photopolymer Film”, um das gewünschte Motiv auf die Druckplatte zu übertragen. Diese im Vergleich zu den beiden erstgenannten Verfahren recht moderne Methode ist einigen Elektro-Bastlern eventuell schon bekannt, weil sie auch zum Ätzen von Leiterplatten genutzt werden kann. - Durch das Ätzen des zuvor am Computer generierten Bildes in eine Kupferplatte (wenn es etwas preiswerter werden muss, tut es auch Aluminium), lässt es sich in einem weiteren Schritt im Tiefdruckverfahren ganz einfach auf ein gewünschtes Papier übertragen.

Apropos, weil es gerade um alte Druck-Techniken geht: Natürlich bieten sich die zuvor generierten Bilder auch für eine Umsetzung im Bereich Radierung, Holzschnitt und Linolschnitt an. Diese Techniken könnten unter anderem dann die bevorzugte Wahl sein, wenn man sich seine Motive von vornherein in entsprechendem Stil erstellen lässt. Denn, Stable Diffusion kann ja nicht nur Fotografie oder bunte Manga Bildchen. Gibt man im Texteingabefeld beispielsweise “im Stil von Holzschnitt” ein, sehen die generierten Bilder tatsächlich wie Holzschnitte aus. Diese könnte man dann beispielsweise unter Zuhilfenahme eines Lasers in eine passende Holzplatte gravieren lassen, mit der sich dann Drucke erstellen ließen. Ebenso könnte man auch verfahren, wollte man sich Radierungen erstellen. - Auch wenn ich das mit generierten Bildern noch nicht selbst ausprobiert habe, kann ich mir gut vorstellen, dass mansofern es gewünscht sein sollte - dem so erstellten fertigen Druck nicht unbedingt ansehen muss, dass er auf Grundlage eines generierten Bildes entstand: das nicht zuletzt deshalb, weil sich hier spürbar der Duktus des Druckvorgangs bemerkbar machen dürfte.

Last but not least, könnte natürlich auch eine Weiterverarbeitung der generierten Motive in Form von Siebdrucken sehr interessant sein.

Oder, falls es mal etwas schneller und sehr viel weniger aufwändig vonstatten gehen soll, beispielsweise weil man mit seinen Kindern etwas basteln will, lassen sich generierte Bilder auch ganz einfach über einen Laserdrucker ausgeben und dann über eine mit Acrylfarbe beschichtete Gelatineplatte auf Pappe/ Papier transferieren (Gelatinedruck). Denn, apropos transferieren: Selbstverständlich lassen sich generierte Bilder ebenso wie alle anderen Bilder auch über alle möglichen Transfertechniken auf gewünschte Materialen übertragen. Dass es sich dabei nicht zwangsläufig immer nur um Papiere, Kleidungsstücke

- THIS IS NOT - 192

oder Mobiliar handeln muss, lässt sich an Social-Media Beiträgen ablesen, die vermuten lassen, dass das eine oder andere generierte Bild vermutlich sogar seinen Weg auf menschliche Haut finden wird.

contact: https://www.facebook.com/valerie.morghulis.1

- THIS IS NOT - 193

Right now we are in a weird space where the technical barriers to using AI are so high that only a very small technically-minded set of people are able to use the technology beyond messing around on a web generator.

So there’s a lot of talk about AI-generated visuals being primarily a portal for people lacking traditional artist skills to create art; however, this only reflects the current, heavily-sweked population of users. Like the advent of Photoshop, AI imagery is going to be a tool used predominantly by artists. Like Photoshop, artists (old or new) will be able to use this technology 100x more powerfully than people who have no idea wtf they are doing--just like a farmer with a tractor or a soldier with a rifle.

Here are some examples my team’s artists are personally excited about:

Inspiration

Mood boarding--generating 100 images of vague concepts just as a muse at the very start of a process.

Outfit remixes--inpainting 100 random versions of outfit details (buttons, textures, accessories, lengths) just to get an idea of how things would look.

Placeholders--they need to design around other art that doesn’t exist yet? Well, now we can make a placeholder for them to work with in 5 seconds.

Communication

img2img pitches--being able to say “like A, B, or C?” with only napkin sketches.

Mid-progress direction--it’s easy to take an in-progress work and instantly make a half-dozen different projections on directions it could go. Artists can ask “A, B, or C?” as much as they want

- THIS IS NOT - 194

https://www.reddit.com/r/StableDiffusion/comments/zuekmi/comment/j1ixiba/

now, at almost no cost of their time.

Communicating with idiots like me who can’t speak art--it’s way less frustrating and wastes less of their time when they can give me lots of examples to point at, instead of suffering through me saying “You know, more pop-ish, but not as orange--and like Ms. Frizzle except not really.”

Production

Full body or scene img2img basically skips the entire “second phase” and gives them a detailed outline to work with from their sketch almost instantly.

Inpainted details and touch-ups is like 90% of visual AI’s true use. It’s just another brush.

They can double down on concept art and spend more of their time making style bibles (for characters, outfits, etc) to train their own embeddings on. Let the AI workhorse make the copies while they focus on originality.

Outpainting--assets made for one context/resolution/aspect ratio being able to be repackaged for others without having to redraw certain component layers--or possibly even open the Photoshop/ InDesign file at all! No artist likes wasting time on this boredom.

All of these are a much bigger deal to productivity than “the prompt game” of seeing if you can make a halfway decent desktop wallpaper with 6 hours of banging your head against a dictionary. That might be fun, but it is (largely) professionally irrelevant.

It’s great that this is getting new people into art, just like the inventions of photography or Photoshop did. It’s also great that it is especially useful for artists or aspiring artists who experience handicaps like impaired motor functions.

But the truth is, those are a very small crowd in comparison to the vast body of traditional artists who will leverage this tool in their workflows and commissions to a potentially game-changing extent.

- THIS IS NOT - 195
- THIS IS NOT - 196
- THIS IS NOT - 197

Hier finden Sie, wie bereits mehrfach angekündigt, die Modelldateien, mit deren Hilfe sich beliebig viele kostenfreie eigene Bilder im Stil der in Teil 1 gezeigten generieren lassen.

Um mit diesen Dateien arbeiten zu können, benötigen Sie zunächst das Programm Stable Diffusion.

Falls Sie bereits Zugriff auf das Programm haben, können sie sich die Dateien einfach herunterladen und damit wie üblich Verfahren.

Für alle Anderen gilt es nun, sich zuerst einmal Zugang zum Programm zu verschaffen.

Für den Fall, dass Sie das Programm noch nicht auf ihrem Computer installiert haben bedenken Sie bitte, dass Sie hierfür einen Computer mit einer entsprechenden Arbeitsleistung und ausreichendem Arbeitsspeicher benötigen. Hierzu ist eine Grafikkarte mit 4 GB VRAM empfohlen, wobei es mindestens 2 GB VRAM auch noch tun sollten.

Eine Liste möglicher Versionen der Installationen von Stable Diffusion auf Ihrem Computer finden Sie hier: https://www.reddit.com/r/stablediffusion/wiki/local/

Für Nutzer von Windows Computern stellt sich die Sache wie folgt dar: Zuerst müssen Sie sich Git und die Programmiersprache Python auf Ihrem Computer installieren, Sodann klonen Sie das Git Repository (das Verzeichnis mit den Daten) des Stable Diffusion Programms auf Ihren Computer und zu guter Letzt laden Sie sich dann noch die entsprechende Modell-Datei/Modell Dateien, mit denen Stable Diffusion Ihre Bilder generieren soll.

Das mag sich nun eventuell ein klein wenig komplizierter anhören, als einfach nur auf einen “Installieren”-Knopf zu klicken, doch keine Bange: Im Grunde sind es nur wenige Klicks mehr und vollzieht sich denkbar einfach. Ein sehr leicht verständliches Tutorial, dem man auch ohne weitere Programmierkenntnisse folgen kann, findet sich dazu beispielsweise hier:

https://youtu.be/VXEyhM3Djqg

TEIL 3 -
DOWNLOAD LINK

Da es auch ansonsten bereits etliche sehr einfach gehaltene Einweisungen in die Installation von Stable Diffusion auf dem eigenen Computer gibt, erspare ich mir an dieser Stelle weitere Verweise.

Sobald Sie das Programm in einem ersten Testlauf ausprobiert haben und alles funktioniert, können nun auch Sie sich die zur Verfügung gestellten Dateien zum Generieren von Bildmaterial Ihrer Lieblings-Prominenten herunterladen.

Bezüglich des Herunterladens der Modelldateien berücksichtigen Sie bitte, dass jede dieser Dateien eine Größe von rund 2 Gigabyte hat. Das bedeutet, dass alle Modelldateien zusammen rund 46 GB groß sind. - Das Herunterladen der Dateien auf Ihrem Computer benötigt also nicht nur genügend freien Speicherplatz, sondern könnte sich, je nach Internetanbindung, ob der Dateigröße auch als etwas langwierig erweisen.

Deshalb wäre mein Tipp - und jetzt bitte nicht erschrecken! - die hier zur Verfügung gestellten Modelldateien NICHT zu nutzen, sondern sich stattdessen viel eher eigene zu generieren.

Dies aus zweierlei Gründen: Zum einen kann sich der Download, je nach Internetgeschwindigkeit, tatsächlich etwas länger gestalten. Bei meiner lahmen Leitung würde es vermutlich so um die anderthalb Stunden dauern. Zum anderen ist Stable Diffusion mittlerweile so weit entwickelt, dass es tatsächlich nicht nur sehr einfach ist, sondern auch recht schnell geht, sich eigene Modelldateien zu generieren.

Wie eingangs erwähnt wurden sämtliche der hier vorliegenden Modelldateien auf Grundlage von Stable Diffusion 1.5-Modellen erstellt, was man mittlerweile, nach nur wenigen Monaten, getrost als „oldschool“ betrachten darf. Die vorliegende Arbeit wurde also ob der rasanten Entwicklung bereits während ihres Entstehens zu einer Reminiszenz an die Anfänger der AI gestützten Bilderstellung. - Selten gelang es einer Arbeit, dermaßen schnell an historischem Wert zu gewinnen!

Um es kurz zu machen, mit der aktuellen Version von Stable Diffusion Modellen lässt sich nicht nur eine sehr viel höhere Qualität in der Darstellung erzielen, sondern auch das Generieren eigener Modelle geht sehr viel effizienter vonstatten. Von daher macht es zumindest in meiner Wahrnehmung gar keine Sinn mehr, auf veraltete Modelldateien zurückzugreifen, zumal ja, und auch das spielt eine Rolle, gerade das Erstellen der Dateien Freude bereiten kann.

Deshalb rate ich jedem Nutzer von Stable Diffusion dazu, sich diesen Arbeitsschritt nicht entgehen zu lassen. Denn unabhängig von der vorliegenden Arbeit lassen sich natürlich nicht nur Modelle von Personen erstellen. Ebenso gut können Sie auch Modelle Ihrer Haustiere generieren, oder von Pflanzen, von Ihrem eigenen Zeichenstil oder wovon auch immer: Wonach immer es Ihr Herz begehrt, der Freiheit sind hier kaum Grenzen gesetzt. Lassen Sie Ihrer Kreativität freien Lauf!

Gut, nun aber endlich zu den vorliegenden Dateien: Sofern Sie einfach mal ausprobieren wollen, was es mit den vorliegenden Dateien auf sich hat, öffnen Sie einfach den angegebenen „THIS IS NOT“ Ordner im google Drive.

https://drive.google.com/drive/folders/1BUgdtQea32cvnSPFLom00rZQPTsXsQcL

Dort finden Sie 23 Dateien mit der Endung „.ckpt“. Dabei handelt es sich um die betreffenden Modell-

- THIS IS NOT - 199

dateien, die Sie, um sie nutzen zu können, in den „models/Stable-Diffusion“ Ornder Ihrer Stable Diffusion Installation kopieren müssen. Am Namen der jeweiligen Datei lässt sich erkennen, um welches Modell es sich dabei handelt. Denn alle Dateien beginnen mit dem Nachnamen des Dargestellten Modells.

Darum heißt beispielsweise die Datei des Modells „Karl Lauterbach“: Lauterbach-karlaubac.ckpt

Laden Sie sich einfach die gewünschte Datei (ggf.die Dateien) herunter und kopieren Sie diese in den „models/Stable-Diffusion“-Ordner ihres Stable Diffusion Programms. Sodann starten Sie Ihr Programm und laden sich dort über das oberste Dropdown-Menü die betreffende ckpt-Modelldatei. Das dauert nun einen kurzen Moment und schon kann es losgehen.

Um nun ein Bild Ihres gewünschten Modells zu erhalten, geben Sie einfach im oberen Texteingabefeld, dem „prompt“ Fenster, Ihre diesbezügliche Texteingabe ein: Dabei achten Sie bitte darauf, anstatt des natürlichen Namens des anvisierten Modells jene Zeichenfolge zu verwenden, die im Namen der Modelldatei nach dem Bindestrich folgt.

Um Beim Beispiel der „Lauterbach“-Modelldatei zu bleiben: Die Datei lautet „Lauterbach-karlaubac.ckpt“, was bedeutet, dass Stable Diffusion Darstellungen des Modells auf Grundlage der Zeichenfolge „karlaubac“ generiert.

Passende Texteingaben könnten also lauten „photo portait of (karlaubac) as serious politician“ oder „portrait of (karlaubac), painting in style of Lucas Cranach“.

Die Benennung der Modelle mag nun etwas verwirrend klingen, aber bitte wundern Sie sich nicht. Denn die Sache hat einen recht einfachen Hintergrund: Da Stable Diffusion Modelldateien, wie am Anfang von Teil 2 dieser kleinen Ausführung geschildert, anhand von Unmengen von Bild/Text-Paaren erstellt wurden, ist durchaus vorstellbar, dass sich in den Unmengen der zugrundeliegenden Daten, neben dem unseren auch noch der eine oder andere „Karl“ befindet. Und da Stable Diffusion natürlich nicht wissen kann, welchen dieser „Karl“ wir meinen, könnte dies im Fall einer weniger eindeutigen Benennung zu Verwirrung führen. Das Programm griffe beim Generieren der Bilder eventuell auch auf die Datensätze anderer „Karl“ zu. Die Folge davon könnte sein, dass unsere Bilder weniger wie der beliebte deutsche Gesundheitsminister Karl Lauterbach aussehen, sondern womöglich einem „Karl“ gleichen, von dem sich ob seiner Bekanntheit evtl. noch ein paar mehr Bilder im zugrundeliegenden Bilderpool finden: Beispielsweise Karl Marx.

Kurzum, die ungewöhnliche Benennung der Modelle soll Stable Diffusion einen eindeutigen Hinweis auf die gewünschten Bilder geben. Zwar kommt es auch hierbei immer wieder zu Unstimmigkeiten, doch nach einigen Versuchen hat man in der Regel stets ein paar gewünschte Ergebnisse erzielt.

Abschließend noch: Im Endeffekt verhält es sich mit Stable Diffusion wie mit vielen anderen Programmen auch. Wenn man sie noch nicht kennt fühlt man sich zunächst evtl. leicht überfordert von der Vielzahl der Eingabeoptionen und Möglichkeiten. Doch sobald man sich damit etwas vertraut gemacht hat, wird es ganz einfach. Darum keine Bange, dass Programm erfordert tatsächlich nur eine sehr kurze Einarbeitungszeit. Und sehr schnell wird es Ihnen möglich sein, problemlos kostenfrei eigenes Bildmaterial generieren zu können.

- THIS IS NOT - 200

FINITO

Ein Großteil unserer Kommunikation ist mittlerweile medialer Natur. Davon wiederum erfolgt ein ganz maßgeblicher Teil über reproduzierte Bilder. Ob in Zeitungen, Zeitschriften oder mobilen Apps, überall dominiert Kommunikation in Form von Grafiken, Fotos oder Videos: visuelle Kommunikation.

Will heißen, visuelle Kommunikation generiert einen ganz beträchtlichen Anteil unseres Erkenntnisgewinns. Sie konstruiert die Wirklichkeit, so wie wir sie wahrnehmen: Sie konstruiert unsere Wirklichkeit.

Sofern es mir mit der vorliegenden Arbeit, sei es über das Besprechen aktueller Kritikpunkte oder das Aufzeigen potenzieller Möglichkeiten und eventueller Gefahren, sei es durch deren bloße Erstellung, ein kleines Stück weit gelungen sein sollte, Ihr geneigtes Augenmerk auf die rasant voranschreitende AI-gestützte Entwicklung in diesem Bereich zu richten, würde mich das freuen.

Sollte dies nicht der Fall sein und es nicht einmal die vorliegende Bilderserie geschafft haben, Ihnen einen minimalen Moment seichter Erheiterung zu bescheren, dann tut es mir leid.

Dann lässt sich das nun auch nicht mehr ändern.

Dann reiht sich leider auch diese Arbeit ein in den endlos langen Reigen absolut nutzloser künstlerischer Beiträge, von denen es bereits viel zu viele gibt.

In der Hoffnung, dass Ihr gestrenges Urteil nicht ganz so dramatisch ausfallen möge, verbleibe ich mit herzlichen Grüßen,

mr. pip.

- THIS IS NOT - 201

This is Not

Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.