Also erstmal: danke für das Thema!
Persönlich beschäftige ich mich seit etwa einem halben Jahr mit generativen Bild-KIs (und auch damit, wie sie tatsächlich Arbeiten, was die einzelnen Konzepte dahinter sind, und so weiter - auch wenn ich das im Detail hier nicht erklären werde und kann, da das Stunden dauert und vermutlich hier fast alles das nötige Vorwissen in Mathematik und in Informatik fehlt).
Ich kann vorweg schonmal eines sagen:
1) "auf google einen Prompt sichen, kopieren und was tolles, einzigartiges erhoffen" klappt nicht besonders zuverläissg.
2) KI "kopiert" niemals etwas, egal was man als Prompt eingibt, eine KI wird niemals exakt ein vorhandenes Bild reproduzieren
Das nur, um mit den gängigen Vorurteilen mal aufzuräumen.
--
Immer wieder höre ich: "Ich hab das mal probiert, ich habe "a naked girl" eingegeben und es kamen Top Ergebnisse raus!"
Ja, das wird so sein. Aber du bekommst eben auch nur irgendeine nackte, junge Frau. Pose egal, Setting egal, Aussehen egal, Hintergrund egal, Beleuchtung egal. Da hat jede noch so schlechte KI einfaches Spiel, dich glücklich zu machen.
Aber: normalerweise will man nicht IRGENDEIN Bild, man will etwas bestimmtes. Und da wird es dann gleich deutlich schwerer. Zum Einen muss man den Prompt passend zur KI formulieren - Dall-E hat danke Kooperation mit ChatGPT (gleiche Firma) ein viel besseres Textverständnis als Midjourney, und auch Midjourney bersteht immernoch besser als StableDiffusion. Zum Anderen muss man auch lernen, die Limitierungen der KI zu umgehen so gut man kann (etwas, dass die KI nie gesehen hat, kann sie schwerer gut abbilden als etwas, das im Trainigssatz in zig hundert Varianten vorhanden war).
Versucht euch doch mal an einer in Shibari gefesselten Mehrjungfrau - aber bitte nicht als Anime oder 3D-Render, sondern möglichst als wäre es ein Foto. Oder versucht mal, mehr als eine Person abzubilden, die gezielt (nicht "irgendwie" sondern so, wie ihr wollt) und passend interagieren. Nur als Beispiel. Beides wird euch die KI nicht so problemlos liefern.
Es GEHT aber. Beides. Man muss sich nur sehr viel damit befassen, welche Tricks (Zusatzmodelle für StableDiffusion wie etwa LoRAs, OpenPose, regional prompts, etc) es gibt, um das hinzubekommen. Und man muss wissen, wie man von einem "stimmt fast"-Bild zu einem besseren, fehlerfreiem Bild kommt (etwa durcj image-to-image, inpainting, ip Adapter, etc). Und auf einmal braucht man genauso viel Wissen und Erfahrung wie ein Fotograf / Zeichner - nur weniger handwerkliches Können.
--
Bliebe noch das "kopieren von anderen".
Es besteht erstmal grundsätzlich das Problem, dass Bilder zum Training genutzt wurden, deren Lizenzbestimmungen oftmals nicht klar geregelt haben, ob das erlaubt ist. Es wurden zwar grundsätzlich nur öffentlich Verfügbare Bilder genutzt, aber diese sind ja nicht automatisch free-use. Da wurde bei neueren KI-Modellen (etwa StableDiffusion XL) zum GLück inzwischen nachgebessert - man lernt dazu. Im Detail diskutieren möchte ich das hier nicht, da das mehr ein moralisches denn ein rechtliches Thema ist, und daher ohnehin nicht eindeutig zu klären. Hier muss man, denke ich, einfach beobachten, was die Zeit bringt - denn neue Technologien bringen quasi immer solche Probleme mit sich (man betrachte die Anfangszeiten des Internets, zum Beispiel).
Ein Problem sehe ich aber nicht: "Man kann der KI den Stil eines Künstlers beibringen, und dann verdient der weniger Geld".
Ich sehe das Problem nicht deswegen nicht, weil es unmöglich ist - doch, doch, absolut möglich!
Ich sehe das Problem deswegen nicht, weil es dazu keine KI braucht. Ich kann auch als Mensch viele Bilder eines Künstlers studieren, nachzeichnen und daran lernen, bis ich den Stil drauf habe und replizieren kann. Absolut problemlos. Und rechtlich absolut in Ordnung - solange ich nicht exakt seine Bilder nachmache und sie dann als Original ausgebe.
Macht KI die Sache leichter? Definitiv. Aber sie ermöglicht das ganze nicht.
Darüber hinaus aber: KI lernt anders, als die meisten Menschen intuitiv glauben. Eine KI merkt sich kein einziges Bild, dass sie im Trainign sieht. Ein KI-Modell ist keine Sammlung von tausenden Bilder, aus denen das passende herausgenommen wird. KI-Lernen ist da viel näher am menschlichen lernen dran, als viele glauben - eine KI kann absolut nichts generieren, nur, weil sie es mal gesehen hat. Vielmehr lernt sie, wie eine Bildliche Darstellung eines abstrakten Konzepts in etwa aussieht, und versucht im Training tatsächlich, viele tausende Male genau das abzubilden. Das gelingt ihr am Anfang nicht, aber sie verbessert sich ständig selbst, bis sie es schafft. Und um zu erkennen, ob sie es geschafft hat oder nicht, DAFÜR braucht man die vielen tausend Beispielbilder mit denen sie trainiert wird. Einfach nur zum Vergleich. Man KÖNNTE einen Menschen hinsetzen, der der KI sagt, was sie anders machen muss - aber zum einen ist die Kommunikation da schwierig (die KI versteht Input nur in Form von Vektoren mit mehreren hundert Dimensionen, die irgendwie für uns Menschen wiederum schwer sind, wie bevorzugen Wörter), und zum anderen sind wir Menschen einfach verdammt langsam. Also gibt man der KI Bilder, um sich selbst überprüfen zu können.
Als Resultat bedeutet das, dass die KI bei egal welchem Prompt niemals exakt ein Bild ausspucken kann, dass sie beim Training benutzt hat. Könnt ihr ja mal versuchen - sogar die Mona Lisa, die KI sicher gesehen hat und zuordnen kann, wird nie exakt wie das Original aussehen.
(Die einzige Ausnahme dieser Regel: eine KI, die nur mit einem einzigen Bild und einem einzigen Prompt trainiert wurde, kann zu diesem Prompt exakt dieses Bild ausspucken - aber sonst gar nichts.)
--
Als Fazit also: ich sehe AI-Art als Kunst. Es braucht Wissen, Erfahrung, kreative Ideen und jede Menge Zeit. Es unterscheidet sich vom Zeichnen nur durch weniger handwerkliches Können, und von der Fotografie vor allem dadurch, dass man die Motive nicht erst real finden muss. Also ja - es ist anders als beide vorhandenen Kunstformen. Aber das macht es nicht weniger valide.
IM Übrigen: ich bin davon Überzeugt, dass KI auch im Schaffensprozess von Bildern nicht mehr zu verdrängen ist. KI WIRD mehr Anwendung finden. Egal ob wir das wollen oder nicht. KI WIRD auch Künstler und Fotografen ein Stück weit verdrängen (sicher nicht komplett), insbesondere bei Auftragsarbeiten wenn irgendjemand gezielt ein bestimmtes Motiv abgebildet haben möchte. Das ist unvermeidbar - aber das ist bei jeder neuen Technologie so, dass sich der Jobmarkt dadurch verändert. Oder wann habt ihr zuletzt eine Brieftaube geschickt oder sied Pferdekutsche gefahren?