Die wunderbare Welt der KI-Kunst

Mit dem Aufkommen von KI-Kunstwerken fragen sich die Menschen oft, ob die Karrieren von Künstlern in irgendeiner Weise gefährdet sein könnten. Das Interessante an der KI-Technologie ist, wie die Kreativbranche auf Algorithmen reduziert werden kann, die detaillierte Stücke erstellen und den Stil der berühmtesten Kunstwerke der Welt kopieren können. Aber KI ist so viel mehr als mathematische Formeln und eine leere Leinwand: Sie trainiert, lehrt und leitet künstliche Intelligenz dazu, zu sehen, was das menschliche Auge sehen kann. Da kommen wir nicht umhin, uns zu fragen: Kann Kreativität gelehrt werden?
Was ist KI-Kunst?
Die Antwort auf diese Frage ist, gelinde gesagt, erschreckend. Stellen Sie sich vor, Sie könnten einen Computeralgorithmus erstellen, der einer Maschine beibringen könnte, die Mona Lisa zu kopieren, oder komplizierte Kunstwerke mit Software und Hardware erstellen, die dafür intelligent programmiert sind.
Die kürzeste und intuitivste Definition wäre, dass KI-Kunst eine Sammlung von Kunstwerken ist, die vollständig von einem Computer erstellt wurden. Man könnte jedoch die Gültigkeit dieser Aussage in Frage stellen, indem man sagt, dass auch die menschliche Führung verantwortlich ist, da es eines Menschen bedarf, um den Algorithmus oder die Maschine zu erstellen. Ja, aber wie lange…?
Wie funktioniert KI-generierte Kunst?
KI kann in Bezug auf Kunst auf zwei verschiedene Arten operieren. Es kann den Stil und die Elemente eines bestimmten Kunstwerks identifizieren und dann das Wissen anwenden, um vorhandene Bilder zu modifizieren, um den Stil zu replizieren. Andernfalls kann es Elemente in ähnlichen Bildern identifizieren und dann das gesammelte Wissen verwenden, um etwas Neues zu erstellen.
KI kann auf alles angewendet werden, von Musik, Videos, Fotografie, Gemälden und anderen. Das Konzept dieser Stilübertragung ist ziemlich einfach: Sie können die Kunstwerke oder Bilder auswählen, die Sie neu erstellen möchten, und dann einen Algorithmus anwenden, um diesen Stil und die Elemente auf ein anderes Bild zu kopieren. Die KI kann auch Mashups verschiedener Bilder erstellen, um mehrere Stile für das Endergebnis zu mischen.
KI-Auktionen
Um Kunst und Technologie auf die nächste Stufe zu heben, versuchen Künstler jetzt, mit der Technologie herumzuspielen, um sie zu einem Partner bei der Schaffung neuer Kunstwerke zu machen. Durch maschinelle Lernalgorithmen können Künstler jetzt Technologie zu einem Ideengeber machen. Mario Klingemann etwa hat sich vom Künstler zum Neurographen gewandelt. Er baut Software, die diese speziellen Algorithmen verwendet, um sie dazu zu bringen, die Elemente zu lernen, die in verschiedenen Zeichnungen, Fotos und Gemälden verwendet werden.
Im Jahr 2018 verkaufte Christie's New York ein KI-Gemälde auf einer Auktion für fast eine halbe Million Dollar. Edmond de Belamy war der Name des Stücks, das von einer Kunstkollektivgruppe namens Obvious geschaffen wurde. Die Auktion für das Stück dauerte etwa sieben Minuten, und es ist das erste seiner Art, das auf einer Auktion verkauft wird. Dies könnte eine Welt voller Möglichkeiten eröffnen, soweit es um KI-generierte Gemälde geht.
Das Gemälde selbst scheint ziemlich verzerrt zu sein (Sie können es in unserer unten beschriebenen Liste der KI-Kunstwerke nachlesen) und wurde mit dem Algorithmus signiert, der zu seiner Erstellung verwendet wurde. Für lange Zeit wird dies als Wendepunkt in der Kunstgeschichte gelten und die Menschen fragen lassen, wo die Schwelle zwischen menschengemachter Kunst und KI-generierten Stücken liegt.
Was ist Googles tiefer Traum?
Alexander Mordvintsev, ein Ingenieur bei Google, hat ein Computerprogramm namens Deep Dream entwickelt. Durch die Verwendung eines neuronalen Netzwerks kann diese Technologie Muster in bereits vorhandenen Bildern identifizieren und neu erstellen, um andere überbearbeitete Bilder zu erstellen.
Das Programm ist in der Lage, Gesichter und Muster in vorhandenen Bildern zu erkennen und nach Wegen zu suchen, sie zu verstehen und zu klassifizieren. Sobald die Software trainiert ist, kann das Netzwerk rückwärts laufen und das Originalbild anpassen. Um besser zu verstehen, wie das funktioniert, erlaubt Google Internetnutzern, ihre eigenen Fotos hochzuladen und Zeuge des fantastischen Ergebnisses eines fast psychedelischen Bildes zu werden, das auf ihrem Originalfoto basiert.
Wie funktioniert Deep Dream?
Damit Deep Dream funktioniert, hat Google ein künstliches neuronales Netz geschaffen, kurz für „Programm, das selbstständig lernen kann“. Diese Netzwerke können basierend auf der Funktionsweise des menschlichen Gehirns angepasst werden, mit künstlichen Neuronen, die biologische ersetzen. Die zur Erstellung der KI-Bilder verwendeten Daten werden auf verschiedene Weise gefiltert, bevor sie das Endergebnis erreichen.
Wir haben vielleicht das Wort „Zug“ oft benutzt. Das liegt daran, dass neuronale Netze nicht nur darauf programmiert sind, Daten von Anfang an zu identifizieren. Sie müssen sie trainieren, indem Sie sie mit genügend Datensätzen füttern, bis sie zu ihrer eigenen Schlussfolgerung darüber gelangen können, was was ist. Sobald sie genügend Informationen haben, die als Bezugspunkt verwendet werden können, werden sie in der Lage sein, einen Sinn daraus zu machen.
In einem ihrer Blog-Posts hat Google erklärt, dass der Trainingsprozess eine Reihe von Wiederholungen und Analysen ist, was bedeutet, dass das Programm tatsächlich viele Bilder desselben Objekts sehen muss, bevor es es vollständig verstehen kann. Man muss dem Programm zum Beispiel eine Million Bilder mit Autos zeigen, wenn es lernen soll, wie man ein Auto ganz alleine erkennt.
Dieses neurale System unterscheidet sich vielleicht gar nicht so sehr vom menschlichen Gehirn (das im Falle der Kunst tatsächlich leichter lernen könnte, wie man dies oder jenes macht). Mit anderen Worten, Sie müssen sich keine Millionen Bilder des Autos ansehen, bevor Sie lernen, welche Elemente das Auto so aussehen lassen, wie es aussieht, oder wie Sie das Bild replizieren können. Aber der skizzierte Prozess ist ziemlich ähnlich: Sobald das Netzwerk weiß, wie bestimmte Objekte zu identifizieren sind, kann es sie neu erstellen.
Aber die Wahrheit hinter dem, was Deep Dream so faszinierend macht, ist die Tatsache, dass noch niemand vollständig verstanden hat, was die Ausgabe steuert. Da es keine menschliche Intelligenz gibt, die die Software zu einem bestimmten Ergebnis führt, übernimmt das Programm so ziemlich eine Reihe vorprogrammierter Aufgaben und verwendet die gelernten Informationen, um ein Ergebnis für die vagen Anweisungen zu generieren. Das resultierende Bild ist eine Darstellung dessen, wie Deep Dream seine Arbeit und Aufgaben interpretiert hat, und vielleicht haben diese präzise Computereingabe und Unvorhersehbarkeit die „Kunst“ in „KI-Kunstwerk“ gebracht.
„Erinnerungen von Passanten“ von Mario Klingemann

Foto von: Bloomberg
Mario Klingemann, ein deutscher Informatiker, hat ein KI-Stück geschaffen, das vollständig von einem Computer erstellt wurde. Die erstaunliche Kunst zeigt eine Reihe verzerrter Gesichter, die als Ergebnis eines Computeralgorithmus Porträts auf zwei separaten Bildschirmen bilden. Ob es sich bei diesem Stück wirklich um ein zu 100 Prozent KI-generiertes Produkt handelt, ist umstritten, da Klingemann die Maschine selbst bauen musste.
„Edmond de Belamy“ von Obvious

Foto von: dezeen
432,000 $. Dies war der endgültige Verkaufspreis für das Kunstwerk von Edmond de Belamy, ein Stück, das ursprünglich auf einen Wert von 10,000 US-Dollar geschätzt wurde. Dieses vom Pariser Künstlerkollektiv Obvious geschaffene Gemälde zeigt einen Mann in einem schwarzen Mantel. Während es viele kontroverse Meinungen darüber gibt, wie unvollendet dieses Gemälde erscheint, verbirgt sich dahinter eine Technologie, die Informationen aus über 15,000 Porträts verwendet und den GAN-Algorithmus (Generative Adversarial Network) verwendet. In der unteren rechten Ecke wurde das Gemälde mit der gleichen Algorithmusformel signiert, die zu seiner Erstellung verwendet wurde.
„Der Untergang des Hauses Usher“ von Anna Ridler
Bereits 2017 erstellte die Künstlerin Anna Ridler ein 12-minütiges Video, das von einer Kurzgeschichte des unsterblichen Edgar Allan Poe inspiriert war. Die Standbilder, aus denen dieses Video besteht, wurden basierend auf den Tuschezeichnungen des Künstlers erstellt, die ein neuronales Netz trainieren. Wie Ridler selbst erklärte, war dies kein Versuch, eine Maschine zu trainieren, um Kunstwerke zu schaffen, sondern vielmehr zu zeigen, wie digitale Kunst die chaotische Welt, in der wir leben, neutralisieren kann.
„Aktportraits“ von Robbie Barrat

Foto von: Robbie Barrat
Robbie Barrat ist ein weiterer vielversprechender Name im Bereich der KI-generierten Kunstwerke. Seine Serie von Aktporträts wurde mithilfe von Algorithmen des Generative Adversarial Network erstellt, die auf eine Serie von Aktporträts aus WikiArt angewendet werden. Das neuronale Netzwerk wurde darauf trainiert, diese unrealistischen Porträts zu erstellen. Der Künstler selbst behauptet, dass die Maschine nicht die richtigen Attribute der verschrotteten Porträts gelernt hat und die endgültigen Bilder mit einem minimalen Verständnis des Originalwerks erstellt hat. Das Ergebnis? Klecksartige und stark verformte Aktporträts.
„Neural Glitch“ von Mario Klingemann

Foto von: Quasimondo
Bereits 2018 begann der Künstler Mario Klingemann mit der Erforschung einer neuen Technik namens „Neural Glitch“. Durch die Manipulation der GANs ist der Künstler in der Lage, die trainierten Gewichte auszutauschen, zu verändern oder zu löschen, wodurch es ihm gelingt, ein Stück mit semantischen und strukturellen Störungen zu schaffen. Noch interessanter an dieser Technik ist, dass keine vorhandenen Fotografien gefiltert oder bearbeitet werden, sodass die gesamte Werkgruppe von Grund auf neu erstellt wird.
„Ich sehe dich“ von Mike Tyka

Foto von: Mike Tyka
Als Teil seiner Serie mit dem Titel „Portraits of Imaginary People“ hat Mike Tyra dieses KI-Kunstwerk geschaffen, das ein menschliches Gesicht darstellt, das in Wirklichkeit nicht existiert. Das Gesicht wurde mit Tausenden verschiedener Porträts erstellt, die auf Flickr gefunden wurden, und verwendete die GANs, die wir zuvor immer wieder erwähnt haben. Diese Systeme basieren auf zwei neuronalen Netzen: Das eine zielt darauf ab, echte und künstlich erzeugte Fotos voneinander zu unterscheiden, während das andere versucht, überzeugende Ergebnisse zu erzielen.
„Deep Dinosaur“ von Chris Rodley

Foto von: chrisrodley.com
Hier ist ein interessantes Beispiel für Stilübertragung von Chris Rodley. Durch die Verwendung von DeepArt.io hat Rodley ein Mashup aus Blumen und Dinosauriern erstellt und die Bilder der letzteren Komponente durch die Verwendung von Elementen der ersteren neu erstellt. Diese Arbeit wurde auf Reddit viral, als psychedelisches Beispiel dafür, wie man Deep Styles verwendet, um KI-Kunst zu schaffen.
Fazit
Das Thema KI-Kunst sorgt für viel Gesprächsstoff. Wie bei jeder anderen Kunstform wird KI auch Stücke erzeugen, die im Mittelpunkt subjektiver Meinungen stehen, also ist es so ziemlich eine Hassliebe, ohne irgendetwas dazwischen. Lange Zeit wurde Kunst verwendet, um eine emotionale Reaktion beim Publikum hervorzurufen oder um Erinnerungen und Gefühle von Künstlern auszudrücken, die das Gefühl hatten, etwas zu sagen zu haben.
Durch die Kombination der ältesten Formen der Erstellung von Kunstwerken mit den modernen Technologien, die Programmierer verwenden, um komplexe Algorithmen zu erstellen, können wir es kaum erwarten zu sehen, welche anderen Ergebnisse die Zukunft bringt, in Bezug darauf, wie Zahlen und Formeln die immer kreativere Welt von beeinflussen können Kunst.









