Künstliche Intelligenz (KI)

Aus RDK Labor
Version vom 15. Dezember 2025, 09:09 Uhr von Zi (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „englisch: ''Artificial Intelligence''; französisch: ''intelligence artificielle''; italienisch: ''intelligenza artificiale'' <big>Michael Klipphahn-Karge</bi…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

englisch: Artificial Intelligence; französisch: intelligence artificielle; italienisch: intelligenza artificiale

Michael Klipphahn-Karge (2025)


Künstlerkollektiv Obvious, Edmond de Belamy, KI generiertes Bild, 2018.
GPT-4o, Fehlerhafte Darstellung eines Vogels, 2025.
Flickr-Account Torley, Video glitch artifacts, layers of them like jello, Glitch in einer Videodatei, 2009.
Forscherteam am Barcelona Supercomputing Center, Trainingsmodell für künstliche Intelligenz mit der Darstellung der Verkündigung von Fra Angelico (um 1425), 2023.

I. Definition

Künstliche Intelligenz (KI) bezeichnet den Bereich der Informationsverarbeitung, der Verfahren und Systeme entwickelt, die Aufgaben möglichst automatisiert ausführen können, die üblicherweise menschliche kognitive Fähigkeiten erfordern. Dazu gehören unter anderem Mustererkennung, Lernen aus Daten, Sprach- und Bildverarbeitung sowie automatisierte Entscheidungsfindung. Technisch beruht KI vor allem auf statistischen Methoden, maschinellem Lernen und neuronalen Netzwerken, die es ermöglichen, große Datenmengen zu analysieren und darauf basierende Ergebnisse oder Inhalte zu generieren.

KI dient einerseits der computergestützten Analyse von Kunstwerken, der Unterstützung kunsthistorischer Forschung, der digitalen Restaurierung, der Sammlungserschließung und der Optimierung musealer Vermittlungs- und Verwaltungsprozesse, andererseits wird es bei der Produktion von Kunstwerken genutzt und beeinflusst damit das Verständnis und die Praxis zeitgenössischer Kunst vor allem des 21. Jahrhunderts.

II. Forschungsstand

Die kunsthistorische und kunstwissenschaftliche Forschung zu KI-Kunst ist interdisziplinär angelegt und bewegt sich an der Schnittstelle von Informatik, Medientheorie und Kulturwissenschaft. Während Informatiker:innen und Ingenieur:innen vor allem die technischen Grundlagen und die Weiterentwicklung von Algorithmen zur Bild-, Text- und Klanggenerierung untersuchen, befassen sich Bild- und Medienwissenschaftler:innen mit Fragen der Autor:innenschaft, Kreativität und Werkästhetik.[1] In den letzten Jahren ist ein signifikanter Anstieg einschlägiger Publikationen zu beobachten, insbesondere im Bereich der Digital Humanities. Dort wird KI etwa als Werkzeug verstanden, um große Bild- oder Textkorpora zu analysieren und Muster sichtbar zu machen, die auch für kunsthistorische Fragestellungen relevant sind.[2] Parallel dazu etabliert sich eine wachsende Fachliteratur im Bereich der postdigitalen Kunst, die die künstlerische Praxis mit KI-Systemen reflektiert und die Rolle smarter Technologien im Kunstfeld beleuchtet.[3] Der dahingehende Forschungsstand zeichnet sich durch eine hohe Dynamik und eine wenig konsolidierte Begrifflichkeit aus.[4]

Während die technische Fachliteratur vornehmlich Modelle und Verfahren beschreibt,[5] bleibt der ästhetische und kulturwissenschaftliche Diskurs durch offenen Fragen nach Autonomie, Intentionalität und Medialität geprägt.[6] Ein kunsthistorisch zentrales Forschungsgebiet ist die Frage nach der Eigengesetzlichkeit von Maschinen und deren Einfluss auf die Künste. Während einige Autor:innen affirmativ von einer kreativen Kollaboration zwischen Mensch und Maschine sprechen,[7] betonen andere, dass KI in erster Linie ein Werkzeug bleibt, dessen Output stark von menschlicher Auswahl, Kuratierung und Interpretation abhängt.[8] Hier knüpfen aktuelle Diskussionen über das Urheberrecht und die rechtliche Stellung von KI-generierten Werken an.[9] Bisher bleibt dahingehend die Verantwortung gegenüber den Urheberrechten der Trainingsdaten – etwa Fotografien oder digitalisierten Kunstwerken – rechtlich wie ethisch ungeklärt. Auch die Kunstmarkt- und Ausstellungsforschung beschäftigt sich zunehmend mit der Rezeption von KI-Kunst.[10] Denn zahlreiche Ausstellungen präsentieren zumindest partiell kritische Analysen, die sich mit Fragen der Materialität, der Ethik von Datensätzen und den gesellschaftlichen Dimensionen algorithmischer Bilder befassen.[11]

III. Geschichte

Die Geschichte der KI beginnt in der Mitte des 20. Jahrhunderts und ist eng mit der Entwicklung moderner Computer verbunden.[12] Der britische Mathematiker Alan Turing stellte 1950 die Frage, ob Maschinen ‚denken‘ können, und entwickelte den sogenannten Turing-Test, um dies zu prüfen.[13] Das Ergebnis hatte nachhaltigen Einfluss auf die KI-Entwicklung, da nach Turing „smarte“ Maschinen im Ergebnis so gebaut sein sollten, als würden sie denken können – Intelligenz ist also eher Konstruktionsparadigma als Attribut entsprechender Systeme.

1956 gilt als Beginn des KI-Forschungsfeldes: Auf der Dartmouth Conference in den USA verwendeten Forscher erstmals den Begriff „Artificial Intelligence“ und legten damit den Grundstein für ein neues Forschungsfeld.[14] In den 1960er- und 1970er-Jahren entstanden die ersten Programme, die regelbasierte Entscheidungsprobleme lösen oder in bestimmten Wissensgebieten, etwa der Medizin, beratend eingesetzt werden konnten.[15] Diese sogenannten Expertensysteme zeigten, dass Maschinen in eng definierten Bereichen erstaunliche Leistungen erbringen können.[16] Doch die Erwartungen an die Technologie waren zu hoch, und mit der begrenzten Rechenleistung der damaligen Computer stieß die Forschung rasch an ihre Grenzen. Es folgten die sogenannten „KI-Winter“ – Zeiten, in denen das Interesse und die Finanzierung deutlich nachließen.[17]

In den 1990er- und 2000er-Jahren erlebte die KI-Entwicklung einen neuen Aufschwung. Mit zunehmender Rechenleistung und besseren Algorithmen konnten maschinelles Lernen und neuronale Netze weiterentwickelt werden. Ein symbolischer Meilenstein war 1997 erreicht, als der IBM-Computer Deep Blue den Schachweltmeister Garri Kasparow besiegte.[18] Nach und nach hielten KI-Systeme Einzug in den Alltag – etwa in Suchmaschinen, Spracherkennung oder Empfehlungssystemen.[19]

Der entscheidende Durchbruch kam mit dem sogenannten Deep Learning in den 2010er-Jahren, wenngleich technologische Grundlagen dessen schon in den 1980er-Jahren hervorgebracht wurden.[20] Durch große Datenmengen und leistungsfähige Grafikkarten konnten tiefe neuronale Netze trainiert werden, die Sprache, Bilder und komplexe Muster automatisiert verarbeiten. In den 2020er-Jahren ist KI darauf aufbauend zu einem festen Bestandteil des Alltags geworden. Mit mit großformatigen generativen Modellen wie den GPT-Modellreihen und DALL·E jeweils von OpenAI, LLaMA 3 von Meta und Grok 2 von xAI, oder Claude 3.5 von Anthropic kann KI auf Befehl eigenständig Texte, Bilder und Musik erzeugen. KI-Systeme werden in der Medizin, Banken und Mobilitätssektor eingesetzt.

Die unmittelbar daran anknüpfende Geschichte der KI-Kunst lässt sich in mehrere Phasen gliedern, die sowohl durch technologische Paradigmenwechsel als auch durch medienästhetische Kontexte bestimmt sind. Die Ursprünge algorithmischer Kunst reichen in die 1950er- und 1960er-Jahre zurück. Künstler:innen wie Georg Nees (1926–2016), Frieder Nake (1938) und Vera Molnár (1924–2023) experimentierten mit Plottern und frühen Computerprogrammen, die nach klar definierten Regeln grafische Muster erzeugten. Diese Arbeiten gelten als Teil der Konkreten Kunst und verknüpften mathematische Strukturen mit visuellen Kompositionen.[21] Parallel dazu entwickelten Informatiker erste Expertensysteme, die – in der Kunst eingesetzt – regelbasierte Entscheidungsprozesse abbildeten.

Beispielhaft wurden in den 1970er-Jahren wurden Systeme wie AARON des britischen Künstlers und Programmierers Harold Cohen bekannt, die in der Lage waren, regelbasiert Zeichnung und Malerei zu generieren.[22] AARON basierte auf regelbasierten Entscheidungsbäumen und kann als Vorläufer heutiger generativer Systeme gelten. Seit den 1990er- und verstärkt in den 2000er-Jahren trat an die Stelle deterministischer Regeln zunehmend das maschinelle Lernen: Systeme wurden nicht mehr ausschließlich auf der Grundlage vordefinierter Anweisungen trainiert, sondern über statistische Modelle auf Basis von Trainingsdaten ausgebildet.[23] Diese Entwicklung wurde durch Fortschritte in der Rechenleistung und durch die Verfügbarkeit großer digitaler Datenmengen begünstigt. So entstanden in der bildenden Kunst erste Arbeiten mit neuronalen Netzen, die Muster- und Stilübertragungen ermöglichten.[24]

Speziell Technologien wie Convolutional Neural Networks (CNNs) und Generative Adversarial Networks (GANs) bilden zentrale Bausteine moderner KI: GANs bestehen aus zwei gegeneinander trainierenden Netzen – einem Generator, der realistisch wirkende Daten erzeugt, und einem Diskriminator, der echte von künstlichen Daten unterscheidet. Durch diesen Wettstreit verbessert sich der Generator kontinuierlich, bis er sehr überzeugende, oft fotorealistische Inhalte erzeugen kann. CNNs sind darauf spezialisiert, Bildinformationen effizient zu verarbeiten, indem sie Muster wie Kanten, Texturen und Formen automatisch erkennen und kombinieren.[25] Dadurch eignen sie sich besonders für Bildklassifikation, Objekterkennung und viele visuelle Analyseaufgaben. Entsprechende Modelle ermöglichten es ab den 2010er-Jahren, hochkomplexe und ästhetisch kohärente Werke zu erzeugen. Besonders die GAN-Technologie führte zu einer neuen Welle von Kunstprojekten, die in der Öffentlichkeit große Aufmerksamkeit erhielten – etwa das 2018 bei Christie’s versteigerte „Portrait of Edmond de Belamy“ des französischen Kollektivs Obvious (gegründet 2018), bestehend aus Hugo Caselles-Dupré (1993), Pierre Fautrel (1993) und Gauthier Vernier (1993). .[26] Plattformen wie DeepDream (Google, 2015) oder Text-zu-Bild-Systeme wie DALL·E und Stable Diffusion trugen dazu bei, KI-generierte Bilder einer breiten Öffentlichkeit zugänglich zu machen und neue Diskurse über Daten, Prompt-Design und Autor:innenschaft anzustoßen. Aus kunsthistorischer Perspektive markiert dieser Durchbruch den Übergang von KI als experimentellem Werkzeug einzelner Pionier:innen hin zu einer breiten und institutionell sichtbaren Kulturtechnik, die sowohl in der zeitgenössischen Kunstpraxis als auch zunehmend im Kunstmarkt und in Museen verankert ist.[27]

IV. Voraussetzungen

Die technischen Grundlagen für die Produktion, Analyse und Rezeption von KI-Kunst beruhen auf Entwicklungen in der Informatik seit der Mitte des 20. Jahrhunderts. Während frühe algorithmische Kunstwerke noch auf deterministischen Rechenvorschriften basierten, ermöglichen heutige Systeme durch maschinelles Lernen, neuronale Netze und generative Modelle die Verarbeitung großer Datenmengen sowie die Erzeugung komplexer ästhetischer Strukturen.

A. Maschinelles Lernen

Maschinelles Lernen bezeichnet KI-Systeme, die potenziell selbstständig aus Daten lernen können, ohne zwingend für die daraus resultierenden Zielaufgaben vorprogrammiert sein zu müssen. Statt auf feste Regeln zurückzugreifen, passen Algorithmen ihre internen Parameter auf der Basis statistischer Gewichtungen an.[28] Darin unterscheiden sie sich fundamental von den deterministischen Programmen der 1960er- und 1970er-Jahre. Modelle lernen durch überwachtes Lernen anhand von Beispieldaten mit bekannten Eingabe- und Ausgabewerten. Dies findet etwa Anwendung darin, Malstile zu erkennen oder Bildmotive zu klassifizieren.[29] Beim unüberwachten Lernen identifizieren Algorithmen verborgene Strukturen und Muster in Daten ohne vorgegebene Labels, also ohne „Etikettierungen“ – von Menschen zugewiesene Bildbedeutungen oder visuelle Kategorien, die anzeigen, was mit der jeweiligen Datei darstellt wird. Das ist für die Clusteranalyse großer Bild- oder Textarchive von Bedeutung.[30]

Eine weitere Form ist das bestärkende Lernen: Systeme optimieren ihr Verhalten durch Belohnungsstrukturen; künstlerische Anwendungen finden sich etwa in interaktiven Performances, bei denen die KI auf menschliche Handlungen reagiert. Für die Kunstpraxis bedeutet der Einsatz maschinellen Lernens, dass Systeme nicht nur Muster reproduzieren, sondern neue Kombinationen generieren können.[31] Diese emergente Kreativität kann nicht dem menschlichen Schaffensakt gleichgestellt werden, aber dennoch eigenständige Variationen hervorbringen.

B. Neuronale Netze und Deep Learning

Eine zentrale technische Entwicklung für die KI-Kunst sind künstliche neuronale Netze. Bereits in den 1980er-Jahren wurde mit dem Backpropagation-Algorithmus ein Verfahren etabliert, das tiefere Netzwerke trainierbar machte; praktische Anwendungen blieben jedoch lange begrenzt, da Rechenkapazitäten und Datenmengen fehlten.[32]

Erst seit den 2010er-Jahren ermöglichten Fortschritte im maschinellen Lernen einen dahingehenden Durchbruch. Besonders CNNs revolutionierten so die Bildverarbeitung. Für das Kunstfeld bedeutet das, dass nicht nur einfache Muster erkannt und komplexe Bildstile erfasst, sondern dass diese synthetisiert werden können. Ein prominentes Beispiel ist die Neural-Style-Transfer-Technik, die ab 2015 das Übertragen von Malstilen auf Fotografien erlaubte.[33] Auch Recurrent Neural Networks (RNNs) und deren Weiterentwicklungen sind für die Text- und Musikproduktion bedeutsam; mit ihnen können kohärente sprachliche oder musikalische Sequenzen erzeugt werden und sie finden Anwendung in Projekten, die narrative oder literarische Kunstformen automatisieren.[34]

C. Generative Modelle

Der entscheidende Schritt hin zu vermeintlich autonom generierter Kunst erfolgte mit den sogenannten generativen Modellen, die nicht nur analysieren, sondern selbstständig neue Daten produzieren können. GANs setzen zwei gegeneinander trainierte Netze – Generator und Diskriminator – ein und haben so weitreichende Fortschritte in der realistischen Bildproduktion ermöglicht: Im künstlerischen Kontext gelten GANs daher als Meilenstein, da damit visuell kohärente Ergebnisse erzeugt werden können. Latente Diffusionsmodelle wie „Stable Diffusion“ erzielen seit den 2020er-Jahren noch hochauflösendere und immer besser abzuschätzende Ergebnisse.[35]

Die Künstlerin Anna Ridler (1985) etwa baut eigens kleine Datensets – etwa über Fotografien tausender handannotierter Tulpen als Trainingsdaten –, um GANs zu trainieren, die Tulpen entsprechen realistisch zu modellieren. Ein dahingehend zentrales Thema ist die Diskussion um die Manipulierbarkeit von Bildern durch generative KI-Modelle, insbesondere hinsichtlich sogenannter Deep-Fakes – digitale Bilder also, die von einem Lernmodell erstellt sind und die täuschend ‚echt‘ wirken sollen. Diese Bildmodulationen führen gegenwärtig zu Problemen ‚Wahrheit‘ und Täuschung visuell zu unterscheiden, wovon nicht nur Bereiche der Künste, sondern auch die der – etwa politischen – Informationsvermittlung betroffen sind.[36]

V. Anwendung

A. Kunst

„KI-Kunst“ bezeichnet Kunstwerke, die mithilfe von Systemen Künstlicher Intelligenz (KI) erstellt oder durch deren Einsatz mitgestaltet werden. Darunter werden Systeme verstanden, die Informationen aus Eingabedaten erkennen, sortieren und weiterverarbeiten können. KI fungiert somit als Werkzeug im künstlerischen Prozess. Dabei kommen Algorithmen – also Rechenvorschriften – und maschinelle Lernverfahren zum Einsatz, um Bilder, Töne oder Texte zu generieren oder künstlerische Prozesse zu operationalisieren und zu automatisieren.

Mit dem Aufkommen künstlicher Intelligenz vollzog sich in der Kunst eine deutliche Verschiebung der traditionellen Gattungslogiken: Da KI-Systeme in der Lage sind, heterogene Datenmodalitäten – Bilder, Texte, Klänge, Bewegungen oder räumliche Konfigurationen – in ein und demselben rechnerischen Prozess zu analysieren, zu transformieren und miteinander zu verschränken, entstehen hybride ästhetische Formationen, die nicht länger eindeutig einem klassischen Medium zuzuordnen sind. Die Funktionsweisen multimodalen Modelle, die Informationen unterschiedlicher sensorischer Sphären formal auf gemeinsame Strukturen abbilden, macht es möglich, dass Bildproduktion aus Textbeschreibung hervorgeht, klangliche Kompositionen durch visuelle Parameter gesteuert werden oder narrative Strukturen aus audiovisuellem Material emergieren. Damit verschiebt sich nicht nur das Verhältnis zwischen vormals „getrennten“ Kunstgattungen, sondern auch der Begriff der künstlerischen Praxis selbst: Wo früher materiale und mediale Grenzen bestimmend sind, erlauben KI-gestützte Verfahren zumindest in Theorie eine nahezu beliebige Kombinatorik künstlerischer Mittel und eröffnen Ausdrucksräume, in denen Bild, Text und Klang nicht als getrennte Kategorien, sondern als ineinander übersetzbare und wechselseitig generative Dimensionen auftreten.

1. Bild

Die prominenteste Anwendung von KI in der Kunst betrifft den Bereich des Bildes. Seit den 2010er-Jahren hat sich eine Vielzahl von Verfahren etabliert, die sowohl in der künstlerischen Praxis als auch im kommerziellen Kunstmarkt sowie im musealen Kontext Beachtung finden. Ein zentrales Verfahren ist der Einsatz von GANs. Diese Technik ermöglicht es, auf der Basis großer Bilddatensätze neuartige und zugleich formal konsistente Bildwelten zu erzeugen: Frühere Projekte wie „DeepDream“ von Google experimentierten mit neuronalen Netzen, die Bilder surreal verfremden und Muster verstärken. Darauf aufbauend entstanden spezialisierte Kunst-GANs wie ArtGAN, das Stile und Themen klassischer Kunstwerke erlernt und neue Bilder im gewünschten Stil erzeugt, oder AICAN von der Rutgers University, das gezielt abweichende oder zufällige Werke schafft, um kreative Originalität zu simulieren. Auch StyleGAN und StyleGAN2 von NVIDIA haben die generative Kunst beeinflusst, indem sie realistische Porträts und Kunststile ermöglichen – unter anderem genutzt in Plattformen wie Artbreeder oder RunwayML, die GAN-Technologie für Künstler:innen ohne Programmierkenntnisse zugänglich machen. Dabei kommt hauptsächlich das Prompten zum Einsatz: Diese Tätigkeit bezeichnet das gezielte Formulieren einer Texteingabe – dem Prompt –, um eine KI dazu anzuleiten, ein gewünschtes Bild mit bestimmten Inhalten, Stilen und Stimmungen zu erzeugen. So wird die visuelle Praxis des Gestaltens zu einer Fähigkeit möglichst exakten Beschreibens – wie es etwa der Fotograf Boris Eldagsen für seine Werkpraxis in Anschlag bringt. Dies geht mit neuen Formen von Literalität einher: Lese-, Schreib- und Deutungsfähigkeit sind nun mit dem Verständnis technologischer Funktionszusammenhänge verbunden.[37]

Da generierte Bilder also über die Eingabe eines Textes entstehen, sind diese Bilder auch als Ausführung eines bestehenden Textes zu verstehen: Beschreibung wird so zum Motor der Entstehung eines Bildes. Zufällige Abweichungen oder sogenannte „Glitches“ werden dabei häufig als ästhetisches Mittel beibehalten oder bewusster in der abschließenden Bildauswahl durch Nutzer:innen forciert – in Anknüpfung an avantgardistische Traditionen wie Dada oder die experimentelle Computerkunst der 1960er-Jahre, die ebenfalls mit Zufall, Regelbrüchen und Systemstörungen arbeiteten.[38] Mario Klingemann (1970) arbeitet ebenfalls mit generativen Bildern und experimentiert früh mit neuronalen Netzen, um Bilder, Videos und interaktive Arbeiten zu erzeugen, oft mit Fokus auf Fehlern, medialen Artefakten im Datenset.[39]


Künstler:innen wie Refik Anadol (1985) die avanciertesten KI-Verfahren in immersive Daten-Installationen eher affirmativ, um riesige, architektonische Projektionen und Raum-Installationen zu generieren. Dadurch wird der Prozess der Datenerstellung selbst zum künstlerischen Thema. Doch es finden sich auch zahlreiche kritische Positionen. Speziell Hito Steyerl (1966) verwendet KI-Bildproduktion invertierend – etwa in Werken, die Automatisierung, prognostische Modellierung oder militärische eingesetzte KI kritisieren. Das von Eyal Weizman (1970) 2010 mitbegründete Recherchekollektiv Forensic Architecture nutzt KI-gestützte Bilderkennung eher anwendungsbezogen als politisch-forensisches Tool.

2. Text

Der Einsatz von KI-gestützten Sprachmodellen im Bereich der Kunst hat seit den späten 2010er-Jahren erheblich an Bedeutung gewonnen. Während algorithmische Textproduktion bereits seit den 1960er-Jahren bekannt ist – etwa in frühen Computerpoesie-Experimenten, die mithilfe kombinatorischer Verfahren erzeugt wurden – markiert der Einsatz neuronaler Netze einen qualitativen Sprung in Richtung vorgeblich kohärenter, komplexer und ästhetisch vielgestaltiger Texte.[40]

Mit der Entwicklung rekurrenter Netze und später der Transformer-Architekturen wurde es möglich, umfangreiche Sprachmodelle zu trainieren, die nicht nur einzelne Wörter, sondern auch längere narrative Strukturen generieren können. KI-gestützte Sprachmodelle transformieren den Schreibprozess von einer linearen Tätigkeit zu einer interaktiven Praxis, in der Menschen als Kurator:innen bzw. Prompt-Designer:innen agieren, während die Maschine die eigentliche Textproduktion übernimmt. Prominente Vertreter sind die GPT-Modelle von OpenAI, deren Fähigkeit, stilistisch differenzierte und semantisch komplexe Texte zu produzieren, auch in der Kunstpraxis rezipiert wird. Künstlerische Anwendungen reichen von Textinstallationen, die maschinell erstellte Texte in den Ausstellungsraum übertragen, über experimentelle Literaturprojekte, in denen die Grenze zwischen menschlicher und maschineller Autor:innenschaft bewusst verwischt wird,[41] bis hin zu interaktiven Performances, in denen Besucher:innen in Echtzeit mit KI-generierten Texten oder Codes konfrontiert werden. Ian Cheng (1984) nutzt Codes als Werkteil seiner KI-basierten Echtzeit-Simulationen. KI verwandelt den angezeigten Quelltext interaktiv in fortlaufend neu generierte Abläufe, die sich visuell geltend machen, indem Dargestelltes darauf aufbauend animiert wird.

Zudem wird KI zunehmend als Disseminationsinstrument etwa für Pressetexte von Künstler:innen genutzt,[42] was wiederum die Rezeption von Kunst mitbestimmt.

Besonders diskutiert wird die Schnittstelle zwischen maschinellem Schreiben und menschlicher Rezeption: Während Algorithmen statistische Wahrscheinlichkeiten von Wortfolgen berechnen, nehmen Leser:innen die Ergebnisse häufig als kohärente, sinnstiftende Texte wahr. Diese Diskrepanz wirft grundlegende Fragen nach Autor:innenschaft, Intentionalität und dem ökonomischen Wert literarischer Texte auf.[43] In der Literaturwissenschaft haben sich hierzu Konzepte wie „posthumane Autor:innenschaft“ oder „Ko-Kreativität“ etabliert, die das Verhältnis von Mensch und Maschine als kollaborativen Prozess beschreiben.[44] Dabei wird darauf hingewiesen, dass KI-gestützte Texte selten ästhetische Innovationen hervorbringen, sondern eher als Reflexionen über die Materialität und Medialität von Sprache zu verstehen sind.

3. Klang und Musik

Die Anwendung von KI im Bereich von Klang und Musik umfasst sowohl die Generierung musikalischer Strukturen als auch die Entwicklung neuer Formen von Klanglandschaften und performativen Settings. Diese Entwicklungen knüpfen an eine lange Tradition algorithmischer und computergestützter Musik an, die bis in die Mitte des 20. Jahrhunderts zurückreicht. Bereits Lejaren Hiller und Leonard Isaacson schufen erste algorithmisch generierte Kompositionen auf der Basis von Wahrscheinlichkeitsmodellen.[45] Seit den 1980er-Jahren experimentierte etwa der Informatiker und Komponist David Cope mit Systemen, die durch die Analyse bestehender Werke Kompositionen im Stil klassischer Komponisten erzeugten; diese frühen Anwendungen gelten als Vorläufer heutiger KI-gestützter Musikproduktion.[46] Mit dem Aufkommen neuronaler Netze und Deep-Learning-Architekturen haben sich die Möglichkeiten erheblich erweitert. Projekte wie Magenta von Google, seit 2016, oder Jukebox von OpenAI, seit 2020, nutzen rekurrente Netze und Transformer-Modelle, um Melodien, Harmonien und sogar ganze Lieder inklusive des Gesangs und der Instrumentierung zu erzeugen. Diese Systeme imitieren nicht nur stilistische Regeln, sondern produzieren Variationen, die sich zwischen bekannten Genres bewegen und hybride Formen hervorbringen – so etwa in den Kompositionen von Esmeralda Conde Ruiz (1980), die partiell auch den Sound von Serverfarmen zum Betrieb von KI-Systemen einbeziehen. Ein zentrales Anwendungsfeld liegt in der Erzeugung von Soundscapes und Ambient-Klanglandschaften.[47]

Darüber hinaus haben sich KI-Systeme in performativen Kontexten etabliert: In Echtzeit generierte oder modifizierte Klänge können live in Konzerten oder Installationen verarbeitet werden, oft in Kombination mit Visualisierungen. Künstler:innen wie Holly Herndon (1980) nutzen sogar maschinell erzeugte Stimmen auf Basis eigener auditiver Trainingsdaten.[48]

4. Interaktive Kunst

Im Bereich interaktiver Kunst eröffnet KI neue Formen des Zusammenspiels zwischen Bild, Text, Klang, Bewegung und Raum. Charakteristisch ist eine Auflösung traditioneller Mediengrenzen, die durch die Fähigkeit KI-gestützter Systeme vorangetrieben wird, multimodale Daten in Echtzeit zu verarbeiten. Ein zentrales Feld ist jene partizipative Kunst, bei der Betrachter:innen zu aktiven Akteur:innen werden: KI-Systeme analysieren Bewegungen, Gesten oder Spracheingaben und generieren darauf basierende visuelle oder akustische Antworten.[49] Frühere Arbeiten der Medienkunst gelten als Vorläufer solcher Systeme, die heute durch KI erheblich verfeinert und automatisiert werden können. Aktuelle Beispiele sind interaktive Installationen, die mittels Computer Vision und Natural Language Processing Bewegungen oder Sprache erfassen und in dynamische audiovisuelle Umgebungen übersetzen.[50] Hinzu kommen Verfahren wie Gesten- und Emotionserkennung, Bewegungsanalyse oder Spracherkennung, die etwa die Künstler:in Simone C Niquille/Technoflesh (1987) kritisch zum Thema macht. In performativen Kontexten führt dies zu einer engen Verzahnung von Mensch und Maschine: Tänzerin Sylvia Camarda (1978) und KI agieren auf Basis von Bewegungsmustererkennung beispielsweise in medialen Feedback-Systemen, in denen KI als eine Art choreografierendes Element agiert.

Ein weiteres Feld ist die Integration von Robotik in künstlerische Performances. Bereits seit den 1990er-Jahren arbeiten Künstler:innen mit robotischen Apparaturen, die Körpererweiterungen oder autonome Bewegungen ermöglichen. Mit KI erhalten diese Roboter neue Formen von Autonomie und Reaktionsfähigkeit: Sie können Bewegungen analysieren, auf Publikumssituationen eingehen und komplexe Verhaltensmuster imitieren.[51] Sougwen Chung (1985) etwa performt mit robotischen Zeichenarmen; KI-Modelle analysieren ihren Gestus und generieren gestische Nachahmungen in stark inszenierten performativen Settings. Stephanie Dinkins (1964) lässt Besucher:innen in Dialog mit einem robotischen Gegenüber treten, das ein Avatar der Künstlerin ist und Fragen von Kolonialgeschichte, Schwarzsein und Geschlecht thematisiert.

In Kontexten von Tanz, Theater oder choreografierten Kunstpraktiken werden Roboter zunehmend als Mitakteure verstanden – etwa Industrieroboter der Künstler:innen Sun Yuan und Peng Yu (1972 und 1974), die in synchronisierten Bewegungen interagieren und repetitive Arbeit vorführen, die für robotische Systeme einen typischen Arbeitsbereich darstellt. KI-gestützte Systeme verfeinern diese Interaktionen, indem sie Muster aus Bewegungsdaten lernen und improvisative Elemente einbetten. In Installationen kombinieren Künstler:innen wie Miguel Chevalier (1959) außerdem KI-gesteuerte Mechaniken mit Licht, Ton und Projektionen, wodurch immersive Räume entstehen, die auf Besucher:innen reagieren und diese zugleich körperlich einbinden.[52]

Neben jenen künstlerischen Praktiken, die KI als generatives Werkzeug – ob kritisch wie Hito Steyerl oder affirmativ wie Refik Anadol einsetzen, hat sich ein weiteres Feld etabliert, in dem künstliche Intelligenz nicht als Produktionsmittel fungiert, sondern selbst zum Gegenstand ästhetischer Reflexion wird. In solchen Arbeiten – etwa die Werke von Zac Blas (1981) oder Trevor Paglen (1974) zur Geschichte von KI-Bilderkennungsmodellen – richtet sich die Aufmerksamkeit weniger auf die performative Leistungsfähigkeit der Technologie als vielmehr auf ihre epistemischen, sozialen und kulturellen Implikationen. Künstler:innen thematisieren algorithmische Entscheidungslogiken, Fragen der Datensouveränität, Machtasymmetrien in Trainingskorpora oder die Materialität der technischen Infrastrukturen und verhandeln diese in Installationen, Performances oder konzeptuellen Werken. Diese Form der KI-Kunst versteht sich somit als kritische Auseinandersetzung mit den Bedingungen, unter denen KI entwickelt, eingesetzt und wahrgenommen wird, und erweitert den kunsttheoretischen Diskurs um Perspektiven, die das Verhältnis von Mensch, Maschine und Gesellschaft nicht über Anwendung, sondern über Analyse und Sichtbarmachung adressieren.[53]

B. Restaurierung

Der Einsatz von KI hat in den letzten Jahren auch im Bereich der Restaurierung und Rekonstruktion von Kunstwerken an Bedeutung gewonnen. Dabei wird KI nicht nur als technisches Hilfsmittel verstanden, sondern als integraler Bestandteil neuer Methoden, die Naturwissenschaften, Informatik und Kunstgeschichte verbinden. Ein zentrales Feld ist die Vervollständigung beschädigter oder fragmentierter Kunstwerke: Mit Verfahren des maschinellen Lernens lassen sich fehlende Partien rekonstruieren, indem Algorithmen auf Basis großer Bilddatenbanken Muster, Kompositionen und Stilelemente extrapolieren.[54] So können Fehlstellen etwa in Wand- oder Tafelgemälden, oder Texten digital ergänzt werden. Beispiele sind die KI-gestützte Rekonstruktion von Michelangelos unvollendeten Skizzen sowie die virtuelle Ergänzung fragmentierter antiker Skulpturen.[55] Auch für die digitale Rekonstruktion historischer Objekte werden KI-Techniken genutzt. 3D-Scans in Kombination mit neuronalen Netzen erlauben die virtuelle Wiederherstellung zerstörter Monumente, etwa in Projekten zur Rekonstruktion kriegsbeschädigter Kulturerbe-Stätten.[56]

Die Analyse von Oberflächenstrukturen profitiert stark von automatisierter Bild- und Mustererkennung: Mittels hochauflösender Makro- und Röntgenaufnahmen können feinste Risse, Craquelée oder Retuschen erkannt werden. Damit unterstützt KI die Arbeit von Restaurator:innen, indem sie präzise Informationen über den Erhaltungszustand liefert. Besondere Bedeutung hat die Simulation ursprünglicher Farbzustände: Viele Werke haben durch Alterung, Licht oder chemische Reaktionen ihre originale Farbigkeit verloren. KI-gestützte Verfahren analysieren Pigmentproben und historische Quellen, um Farbschichten virtuell zu rekonstruieren – etwa bei mittelalterlichen Handschriften oder antiken Skulpturen.[57]

Die automatisierte Materialanalyse ist ein weiteres Feld: Durch maschinelles Lernen können Pigmente, Bindemittel und Oberflächenbeschaffenheiten erkannt und eingeordnet werden. Dies erlaubt Rückschlüsse auf Techniken, Werkstätten oder Fälschungen und erweitert die Provenienzforschung.[58] Schließlich spielt KI eine Schlüsselrolle bei der Auswertung von Spektraldaten: Hyperspektrale Bildgebung, Röntgenfluoreszenz oder Infrarot-Reflektografie liefern große Datenmengen, deren manuelle Analyse ohne KI oft zu zeitaufwendig wäre.[59]

C. Kunstmarkt

Der Kunstmarkt ist ein zentraler Ort, an dem die Auswirkungen von KI sichtbar werden – sowohl in der Produktion neuer Kunstwerke als auch in der Verwaltung, Bewertung und Sicherung bestehender Sammlungen. Während KI im kreativen Bereich häufig als künstlerisches Werkzeug verstanden wird, wirkt sie hier vor allem als Instrument zur Analyse, Authentifizierung und ökonomischen Steuerung und Streuung.[60] Eine prominente Anwendung liegt in der automatisierten Kategorisierung und Bewertung: KI-Systeme klassifizieren Werke anhand von Stilmerkmalen, Bildinhalten und Provenienzdaten und ordnen sie kunsthistorischen Kontexten zu. So lassen sich Markttrends identifizieren, Nachfrage prognostizieren und Sammlungen digital erschließen. In Kombination mit ökonomischen Datenbanken und Auktionsarchiven erstellen Algorithmen Preisprognosen und sagen Wertentwicklungen voraus. Auch im Kunstversicherungswesen gewinnt KI an Bedeutung: Versicherer nutzen maschinelle Lernverfahren, um Risiken zu bewerten, Schadensbilder automatisiert zu analysieren und Marktwerte effizienter zu bestimmen.[61] KI-gestützte Bildanalysen erkennen Schäden – etwa Kratzer, Risse oder Verfärbungen – und dokumentieren sie. Ein sensibler Bereich ist dabei die Fälschungserkennung, in der KI bereits Erfolge erzielt hat. Systeme zur Stilanalyse identifizieren feinste Pinselstrichmuster oder mikrostrukturelle Eigenheiten, die für menschliche Expert:innen schwer erkennbar sind.[62] Kombiniert mit materialwissenschaftlichen Methoden – automatisierte Analysen von Pigmenten und Leinwandstrukturen – unterstützen sie Echtheitsprüfung und Datierung.

Parallel dazu hat die Verbreitung von Non-Fungible Tokens (NFTs) marktgängige Modelle digitaler Provenienz geschaffen, die KI-generierte Kunst als handelbare Assets konzipieren. Im aktuellen Diskurs werden NFTs zugleich als Experimentierfeld bewertet, dessen wirtschaftliche und institutionelle Relevanz je nach Marktsegment stark schwankt.[63]

D. Kunstgeschichte

Der Einsatz von KI in der kunsthistorischen Forschung eröffnet methodische Zugänge, die sowohl die Analyse großer Datenmengen als auch die Neubewertung klassischer Fragestellungen ermöglichen. In Kombination mit den Digital Humanities haben sich zahlreiche Projekte etabliert, die KI als Werkzeug zur Untersuchung von Bildern, Texten und kulturhistorischen Kontexten nutzen.[64] Ein zentrales Feld ist die Durchsuchung großer Bilddatenbanken nach stilistischen Merkmalen; dadurch lassen sich Vergleiche über ganze Korpora hinweg anstellen, die manuell kaum zu leisten wären. Gleichwohl müssen bei interfacebasierten Bildanalysen Ähnlichkeiten meist noch von den Nutzer:innen der KI-Software vordefiniert werden.[65] Gerade wenn ein komplexer historischer, nichtfotografischer Korpus vorliegt, kommt zunehmend Domain-Training zum Einsatz: ein Netzwerktraining mit dezidiert kunsthistorischen Bilddaten, wodurch ein entsprechend ausgebildetes Netzwerk in den Stand versetzt wird, Symptomatiken und damit so etwas wie ‚Stile‘ wesentlich besser zu erkennen als anders trainierte Modelle zur Bilderkennung.

Die automatisierte Zuordnung von Kunstwerken zu Künstler:innen, Schulen oder Epochen ist dabei ein weiteres Forschungsfeld: KI-Systeme erkennen charakteristische stilistische Signaturen und unterstützen Attribution sowie Fälschungserkennung.[66] Wichtig ist zudem die Rekonstruktion von Provenienzen: Neben der Bildanalyse spielt hier die KI-basierte Textanalyse eine zentrale Rolle: Mittels Natural Language Processing lassen sich des Weiteren Inventarlisten, Archivdokumente, Auktionskataloge oder Ausstellungskritiken automatisiert durchsuchen und auswerten.[67] Dies eröffnet neue Perspektiven auf Diskurse, die die Rezeption und Zirkulation von Kunstwerken geprägt haben. Darüber hinaus ermöglicht KI die Untersuchung zeitgenössischer Online-Diskussionen und Sammlungsbewegungen: Mit Methoden der Sentiment-Analyse und Netzwerkanalyse lässt sich nachvollziehen, wie Kunstwerke und Ausstellungen in digitalen Öffentlichkeiten verhandelt werden – und wie digitale Kulturen das Kunstsystem beeinflussen.[68]

E. Museumswesen

Der Einsatz von KI im Ausstellungswesen betrifft sowohl die Produktion und Präsentation von Kunstwerken als auch die Kuratierung und Vermittlung von Sammlungen. Museen, Biennalen und Galerien experimentieren zunehmend mit KI-basierten Verfahren, um einerseits die Rezeption zu erweitern, andererseits den kuratorischen Prozess algorithmisch zu unterstützen: Maschinelles Lernen ermöglicht es beispielsweise, große Bild- und Textkorpora von Museumssammlungen zu durchsuchen, stilistische Gemeinsamkeiten zu identifizieren und Verbindungen zwischen Objekten sichtbar zu machen, die zuvor unbeachtet blieben.[69] Zudem wird in gegenwartskünstlerischen Kontexten mit maschinellen Akteur:innen als Ko-Kurator:innen experimentiert.[70] Zugleich wird KI als Gestaltungselement im Ausstellungsraum eingesetzt: Zahlreiche Museen und Biennalen präsentieren interaktive KI-Installationen, die auf Besucher:innen reagieren.[71]

Künstler:innen wie Nora Al-Badri (1984) nutzten KI, um koloniale Machtstrukturen in musealen Sammlungen sichtbar zu machen und um einerseits zu fragen, wie sich diese Sammlungen zusammensetzen. Andererseits entwirft sie mittels KI alternative Erzählungen, um Fragen von Besitz, Repräsentationen und Wissenshierarchien westlicher Institutionen zu stellen.

VI. Rezeption und Kritik

Die Rezeption von KI in der Kunst ist von einer vielschichtigen Debatte geprägt, die technische, ästhetische, rechtliche, ökonomische und gesellschaftspolitische Dimensionen umfasst. Während KI von einigen Akteur:innen als revolutionäre Erweiterung künstlerischer Praxis begrüßt wird, betrachten andere sie als Bedrohung tradierter Konzepte von Autor:innenschaft und Kreativität: Manche Positionen begreifen KI als Ko-Autor:in, andere betonen, dass die eigentliche künstlerische Leistung in Konzeption, Auswahl und Steuerung von Daten, Algorithmen und Prompts liegt. Künstler:innen treten damit weniger als klassische Urheber:innen, sondern vielmehr als Kurator:innen algorithmischer Prozesse auf. Die (rechtliche) Frage nach einer Autor:innenschaft von KI wird so vor allem eine Frage von Werterhaltungs- und damit von Sicherheitsdenken.[72] Da KI-Systeme auf der Analyse großer, oft intransparenter Datenmengen beruhen, bleibt umstritten, inwieweit maschinell generierte Werke tatsächlich neu sind oder lediglich statistische Rekombinationen bestehender Muster darstellen.[73] Auf dem Gebiet der Kunsttheorie wird diskutiert, ob Intentionalität, traditionell Kern künstlerischer Praxis, überhaupt auf maschinelle Systeme übertragbar wäre.[74] Juristisch ist ohnehin weiterhin unklar, wem die Rechte an KI-generierten Werken zustehen – den Programmierenden, den Eingebenden oder keiner der Parteien.[75]

Zunehmend in den Fokus rückt die Frage nach den sozialen Digitalplattformen, für die KI-Bilder produziert und auf denen sie verbreitet werden: KI-Bilder zirkulieren innerhalb sozialmedialer Infrastrukturen, die auf Kommerzialisierung, Datensammlung und algorithmischer Sichtbarkeitssteuerung beruhen. In diesen Systemen wird über KI-Bildgenerierungstools wie „Midjourney“ oder „Dall-E“ eine neue Art visueller Generalität gestreut, in der ästhetische Homogenisierung, kulturelle Glättung und Affektsteuerung zusammenwirken. Kritiker:innen sprechen in diesem Zusammenhang von Plattformrealitäten: Darstellungen, die hegemoniale, oft faschistoid inspirierte Ästhetiken reproduzieren und zugleich alternative Darstellungsformen marginalisieren.[76] KI-generierte Bilder werden so Teil einer maschinell verstärkten Ideologieproduktion, in der algorithmische Entscheidungen unbemerkt ästhetische und soziale Hierarchien stabilisieren.

Ein zentraler Kritikpunkt bleibt des Weiteren der Bias in Trainingsdaten: KI-Systeme reproduzieren die Verzerrungen, die in den zugrunde liegenden Datensätzen enthalten sind. Dies führt zur Überrepräsentation westlicher, weißer, männlicher Perspektiven und zur Marginalisierung anderer kultureller oder ästhetischer Traditionen.[77] KI-Bilder tragen damit zur Fortschreibung kolonialer und patriarchaler Darstellungstraditionen bei. Künstler:innen wie Jake Elwes (1993) queeren Datensets und versuchen über Glitches in der Bildsprache, Normativität in Datensets und Visualisierungen von Körpern zu hinterfragen.

Hinzu kommt die mangelnde Transparenz vieler Systeme – das sogenannte Black-Box-Prinzip –, das sowohl für kunsthistorische Analysen als auch für eine öffentliche Vermittlung der Funktionsweisen von KI-Technologien problematisch ist und die Verantwortung von Programmierer:innen und Unternehmen verschleiert.[78]

Auch ökologische Fragen sind relevant: Das Training großer Modelle erfordert erhebliche Energiemengen und steht im Spannungsfeld aktueller Debatten über nachhaltige Produktionsweisen und nachhaltige Trainingsmöglichkeiten von KI-Systemen.[79] So entstehen Forschungsschwerpunkte zu Narrow AI und Low-Resource-Modellen, die gezielt auf kleinere, spezialisierte Modelle setzen, die mit begrenzten Datenmengen und geringem Energieeinsatz auskommen. Auch im Kunstfeld wächst das Interesse an ressourcenschonenden KI-Verfahren und an Projekten, die ökologische Kosten transparent machen oder selbst zum Gegenstand künstlerischer Auseinandersetzung machen – etwa Arbeiten, die Energieverbrauch visualisieren oder serverseitige Infrastrukturen von KI-Modellen ästhetisch reflektieren, wie es etwas Werke von Andreas Greiner zeigen.

Anmerkungen

  1. Derlei Ansätze versammelten etwa Stephanie Catani und Anna-Maria Hartmann (Hg.), Handbuch Künstliche Intelligenz und die Künste, Berlin 2024, oder Robin Markus Auer u. a. (Hg.), Artificial Intelligence – Intelligent Art? Human-Machine Interaction and Creative Practice, Bielefeld 2024.
  2. Peter Bell, Lisa Dieckmann und Piotr Kuroczyński (Hg.), Computing Art Reader, Einführung in die digitale Kunstgeschichte, Heidelberg 2018.
  3. Beispiele finden sich etwa bei Göran Hermerén, Art and Artificial intelligence, Cambridge 2024; Merzmensch, KI-Kunst, Berlin 2023, oder Joanna Zylinska, AI Art. Machine Visions and Warped Dreams, London 2020.
  4. Kunst, die in irgendeiner Weise mit KI zusammenhängt, wir meist schlicht unter dem affirmativen Sammelbegriff ‚KI-Kunst‘ gefasst und ebenso simplifizierend wie bekräftigend mit „neuartige[n] Kulturästhetiken und algorithmisierte[n] Formensprachen“ beschrieben, aber kaum differenziert (Pamela C. Scorzin, ARTificiality. Künstliche Intelligenz, Kreativität und Kunst, in: Kunstforum 278, 2021, S. 50–75, hier 60).
  5. Jakub M. Tomczak, Deep Generative Modeling, London 2022.
  6. Stefan Oehm, Kann Kunst autonom sein?, Eine interdisziplinäre Annäherung an eine akute Frage der Ästhetik, Weilerswist 2025.
  7. Z. B. Sol Hensfield, Die Kunst der Maschinen. Kreativität im Zeitalter der Künstlichen Intelligenz: Die Rolle von Künstlicher Intelligenz in der modernen Kunstwelt, Ahrensburg 2025; Pamela C. Scorzin, Kann KI Kunst? AI ART: Neue Positionen und technisierte Ästhetiken, in: Kunstforum 278, 2021, S. 50–75.
  8. Etwa Francis Hunger, Unhype Artificial Intelligence! A Proposal to Replace the Deceiving Terminology, in: Training the Archive – Working Paper 6, Aachen/Dortmund 2023; Michael Klipphahn-Karge, Repräsentation, Kritik und Anlass. Eine Trichotomie der künstlerischen Nutzungsaspekte von KI, in: Richard Groß und Rita Jordan (Hg.), KI-Realitäten. Modelle, Praktiken und Topologien maschinellen Lernens, Bielefeld 2023, S. 287–314; Wolfgang Ullrich, KI-Bilder: Wenn Bilder nur noch Bullshit sind, in: Die ZEIT, Online, 7. Januar 2025.
  9. Marvin Jäschke, Die Künstliche Intelligenz im Urheberrecht. Systeme, Arbeitsprozesse und -ergebnisse moderner KI in einer urheberrechtlichen Gesamtbetrachtung, Frankfurt a. M. 2025; Amelie Rossipaul, Künstliche Intelligenz in Kommunikation und Kunst: Eine verfassungsrechtliche Betrachtung, Tübingen 2023.
  10. Z. B. Jörn Münkner, Maximilian Görmar und Joëlle Weis (Hg.), Sammlung und Netz. Theoretische und praxeologische Implikationen, Göttingen 2024.
  11. Michael Klipphahn-Karge, Repräsentation, Kritik und Anlass. Eine Trichotomie der künstlerischen Nutzungsaspekte von KI, in: Richard Groß und Rita Jordan (Hg.), KI-Realitäten. Modelle, Praktiken und Topologien maschinellen Lernens, Bielefeld 2023, S. 287–289.
  12. Matteo Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence, London/New York 2023.
  13. Alan M. Turing, Computing Machinery and Intelligence, in: Mind 59, 1950, H. 236 , S. 433–460.
  14. “We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer” (John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon, Auszug Förderantrag, eingereicht bei der Rockefeller Foundation, 31. August 1955, S. 1).
  15. Edward H. Shortliffe, Computer-Based Medical Consultations: MYCIN, New York 1976.
  16. Alexander L. Fradkov, Early History of Machine Learning, IFAC-PapersOnLine 53/2, 2020, S. 1385–1390.
  17. Andreas Kaplan, Artificial Intelligence, Business and Civilization, London 2022.
  18. Martina Heßler, Der Erfolg der „Dummheit“. Deep Blues Sieg über den Schachweltmeister Garri Kasparov und der Streit über seine Bedeutung für die Künstliche Intelligenz-Forschung, in: NTM Zeitschrift für Geschichte der Wissenschaften, Technik und Medizin 25, 2017, H. 1, S. 1–33.
  19. Nils J Nilsson, Quest for Artificial Intelligence: A History of Ideas and Achievements, Cambridge u. a. 2010.
  20. Etwa Kunihiko Fukushima, Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position, in: Biological Cybernetics 36, 1980, H. 4, S. 193–202; Alex Waibel, Phoneme Recognition Using Time-Delay Neural Networks. Meeting of the Institute of Electrical, Information and Communication Engineers, Tokyo 1987; Yann LeCun u. a., Backpropagation Applied to Handwritten Zip Code Recognition. Neural Computation 1, 1989, S. 541–551.
  21. Frank Dietrich, Visual Intelligence: The First Decade of Computer Art (1965–1975), in: Leonardo 19, 1986, H. 2, S. 159–169; Frieder Nake, Ästhetik als Informationsverarbeitung, Wien/New York 1974.
  22. Milos Todorovic, AI and Heritage: A Discussion on Rethinking Heritage in a Digital World, in: International Journal of Cultural and Social Studies 10, 2024, H. 1, S. 1–11, hier 5.
  23. Lev Manovich, AI Aesthetics, Moskau 2018.
  24. Lev Manovich, Ten Key Texts on Digital Art: 1970–2000, in: Leonardo 35, 2022, H. 5, S. 567–569.
  25. Fabian Offert, Critical Machine Vision. Epistemology and Aesthetics of Deep CNNs, Santa Barbara 2020.
  26. Sunanda Rani et al., Examining the impacts of artificial intelligence technology and computing on digital art: a case study of Edmond de Belamy and its aesthetic values and techniques, AI and Society 40, 2025, 4, S. 2417–2435.
  27. Jan Svenungsson, Art Intelligence. How Generative AI Relates to Human Art-Making, Bielefeld 2024.
  28. Christopher M. Bishop, Pattern Recognition and Machine Learning. Information Science and Statistics, Berlin 2008.
  29. Peter Bell, Antonio Monroy und Björn Ommer, Morphological Analysis for Investigating Artistic Images, in: Image and Vision Computing 32, 2014, H. 6, S. 414–423; Amanda Wasielewski, Computational Formalism: Art History and Machine Learning, Cambridge, Mass. 2023.
  30. Kate Crawford und Alexandra Sasha Luccioni, The Nine Lives of ImageNet: A Sociotechnical Retrospective of a Foundation Dataset and the Limits of Automated Essentialism, in: Journal of Data-Centric Machine Learning Research 3, 2024, S. 1–18; Vaibhav Verdhan, Data Without Labels Practical unsupervised machine learning, Shelter Island 2025.
  31. Uwe Lorenz, Reinforcement Learning: Aktuelle Ansätze verstehen, Wiesbaden 2024.
  32. David E. Rumelhart, Geoffrey E. Hinton und Ronald J. Williams, Learning Representations by Back-Propagating Errors, in: Nature 323, 1986, S. 533–536; Raúl Rojas, Theorie der Neuronalen Netze, Wiesbaden 1996.
  33. Fabian Offert, Critical Machine Vision. Epistemology and Aesthetics of Deep CNNs, Santa Barbara 2020.
  34. Jenifer Becker, Dear GPT-3: Collaborative Writing with Neural Nets, in: Robin Markus Auer u. a. (Hg.), Artificial Intelligence – Intelligent Art? Human-Machine Interaction and Creative Practice, Bielefeld 2024, S. 189–202.
  35. Robin Rombach u. a., High-Resolution Image Synthesis with Latent Diffusion Models (Stable Diffusion), in: arXivLabs 2022: S. 1–45, doi:10.48550/arXiv.2112.10752.
  36. Tomás Dvořák und Jussi Parikka (Hg.), Photography Off the Scale – Technologies and Theories of the Mass Image (Technicities), Edinburgh 2021; Katja Muñoz/Emma Laumann, KI und Wahlen. Neue Dynamiken der digitalen Demokratie in Deutschland, Berlin 2024.
  37. Duri Long und Brian Magerko, What is AI Literacy? Competencies and Design Considerations, in: Regina Bernhaupt u. a. (Hg.), Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems ACM, New York 2020, S. 1–16.
  38. Gloria Maria Cappelletti, The Poetics of Error: Aesthetics of Glitch and Disruption in AI-Generated Visuals, in: RED-EYE WORLD, 19. Juni 2024: https://red-eye.world/c/the-poetics-of-error-aesthetics-of-glitch-and-disruption-in-ai-generated-visuals (30.10.2025); Viktor Fritzenkötter, Glitch, Berlin 2025.
  39. In der Praxis eröffnen generative Bildkulturen meist Debatten über neue Formen von Aneignung und Transformation historischer Stile, die in Umsetzung weniger in der Kunstproduktion Anwendung finden als im kommerziellen Bereich – etwa in der Werbeindustrie, in der Architektur und im Design. Beispiele finden sich etwa in Roberto Grandinetti, How artificial intelligence can change the core of marketing theory, in: Innovative Marketing 16, 2020, H. 2, S. 91–103; Matias del Campo, Artificial Intelligence in Architecture, Weinheim 2024.
  40. Jenifer Becker, Dear GPT-3: Collaborative Writing with Neural Nets, in: Robin Markus Auer u. a. (Hg.), Artificial Intelligence – Intelligent Art? Human-Machine Interaction and Creative Practice, Bielefeld 2024, S. 189–202.
  41. Jens Schröter, ‚Künstliche Intelligenz‘ und die Frage nach der künstlerischen Autor*innenschaft, in: Kunstforum 278, 2021, S. 98–107.
  42. Lisa-Marie Berndt, Künstliche Intelligenz als Kurator, in: Monopol, 12. Dezember 2023: https://www.monopol-magazin.de/kuenstliche-intelligenz-als-kurator (30.10.2025).
  43. Hannes Bajohr, Schreibenlassen. Texte zur Literatur im Digitalen, Berlin 2022; ders., Große Sprachmodelle. Machine Learning als Lese- und Schreibermöglichung, Zeitschrift für Medienwissenschaft 31, 2024, H. 2, S. 142–146; ders. und Simon Roloff, Digitale Literatur zur Einführung, Hamburg 2024.
  44. Jenifer Becker, Dear GPT-3: Collaborative Writing with Neural Nets, in: Robin Markus Auer u. a. (Hg.), Artificial Intelligence – Intelligent Art? Human-Machine Interaction and Creative Practice, Bielefeld 2024, S. 189–202.
  45. Lejaren A. Hiller und Leonard M. Isaacson, Experimental Music: Composition With an Electronic Computer, 2. Aufl., New York 1959.
  46. David Cope, Computers and Musical Style, Madison 1991.
  47. Dorien Herremans, Ching-Hua Chuan und Elaine Chew, A Functional Taxonomy of Music Generation Systems, ACM Computing Surveys 50, 2017, H. 5, S. 1–30.
  48. Mehr Informationen finden sich auf der Website der Künstlerin: https://herndondryhurst.studio.
  49. Anon., How AI Exhibitions and AR Experiences Are Transforming Personalized Experience Marketing, in: King One Design, 3. November 2025: https://www.kingone-design.com/en/blog/ai-ar-exhibition-experience-design (07.11.2025).
  50. Cristian Ciurea und Florin Gheorghe Filip, Collaboration in the AI Era – Creative AI and Virtual Exhibitions, in: Procedia Computer Science 266, 2025, S. 198–204.
  51. Damith Herath, Christian Kroos und Stelarc, Robots and Art: Exploring an Unlikely Symbiosis, New York 2016.
  52. Izabela Derda, Museum exhibition co-creation in the age of data: Emerging design strategy for enhanced visitor engagement, Convergence, in: The International Journal of Research into New Media Technologies 30, 2023, H. 5, S. 1596–1609.
  53. Michael Klipphahn-Karge, Repräsentation, Kritik und Anlass. Eine Trichotomie der künstlerischen Nutzungsaspekte von KI, in: Richard Groß und Rita Jordan (Hg.), KI-Realitäten. Modelle, Praktiken und Topologien maschinellen Lernens, Bielefeld 2023, S. 287–314, hier 304–310.
  54. Johanna Drucker, Is There a Digital Art History?, Visual Resources: An International Journal of Documentation 29, 2013, H. 1–2, S. 5–13.
  55. Umgekehrt dazu argumentiert Fabian Offert, dass der Anhäufungsprozess von Pixeln im Latenzraum selbst als skulpturaler Prozess in der Generierung von KI-Bildern verstanden werden kann (Fabian Offert, Fabian Offert, KI-Kunst als Skulptur, in: Richard Groß und Rita Jordan [Hg.], KI-Realitäten. Modelle, Praktiken und Topologien maschinellen Lernens, Bielefeld 2023, S. 273–286).
  56. Piotr Kuroczyński, Neuer Forschungsraum für die Kunstgeschichte: Virtuelle Forschungsumgebungen für digitale 3D-Rekonstruktionen, in: Peter Bell, Lisa Dieckmann und Piotr Kuroczyński (Hg.), Computing Art Reader, Einführung in die digitale Kunstgeschichte, Heidelberg 2018, S. 161–185.
  57. Zdenek Preisler u. a., Deep learning for enhanced spectral analysis of MA-XRF datasets of paintings, in: Science Advances 10, 2024, H. 39: https://doi.org/10.1126/sciadv.adp6234
  58. Wolfgang Reuter, Fälschungserkennung mit Künstlicher Intelligenz: Möglichkeiten und Grenzen einer neuen Technik in der Stilanalyse, in: L.I.S.A. Wissenschaftsportal Gerda Henkel Stiftung, 17. Mai 2024: https://lisa.gerda-henkel-stiftung.de/kunstundfaelschung_wolfgangreuter (7.12.2025).
  59. Anzhelika Mezina u. a., A Neural Network for Anomaly Detection in Artworks Using X-ray and Visible Spectrum Imaging, in: Journal of Cultural Heritage 76, 2025, S. 29–38.
  60. Daniel Grant, Artificial Intelligence Is Quietly Rewriting the Rules of Art Valuation, in: Observer, 08. Oktober 2025: https://observer.com/2025/10/how-art-market-is-using-ai-valuation/ (7.12.2025).
  61. Sam Barrett, How artificial intelligence affects the art insurance industry, in: Insurance Post, 05. Apr. 2023: https://www.postonline.co.uk/personal/7953013/how-artificial-intelligence-affects-the-art-insurance-industry (7.12.2025).
  62. Zdenek Preisler u. a., Deep learning for enhanced spectral analysis of MA-XRF datasets of paintings, Science Advances 10, 2024, H. 39: https://doi.org/10.1126/sciadv.adp6234
  63. Kolja Reichert, Krypto-Kunst, Berlin 2021.
  64. Harald Klinke, The Digital Transformation of Art History, in: Kathryn Brown (Hg.), The Routledge Companion To Digital Humanities And Art History, London 2020, S. 32–41.
  65. Harald Klinke und Liska Surkemper, Big Image Data as new research opportunity in Art History, International Journal for Digital Art History 2, 2016, H. 10, S. 14–37.
  66. Werner Schweibenz, Der Yellow-Milkmaid-Effekt und das digitale Double — Zur Wirkmächtigkeit digitaler Bilder, in: Peter Bell, Lisa Dieckmann und Piotr Kuroczyński (Hg.), Computing Art Reader, Einführung in die digitale Kunstgeschichte, Heidelberg 2018, S. 219–234.
  67. Judith L. Klavans u. a., Computational linguistics for metadata building (CLiMB): using text mining for the automatic identification, categorization, and disambiguation of subject terms for image metadata, in: Multimedia Tools and Applications 42, 2009, H. 1, S. 115–138.
  68. Holger Simon, Digitales Ökosystem – Eine Antwort auf die digitale Transformation in den Kulturinstitutionen am Beispiel der Museen, in: Peter Bell, Lisa Dieckmann und Piotr Kuroczyński (Hg.), Computing Art Reader, Einführung in die digitale Kunstgeschichte, Heidelberg 2018, S. 319–332.
  69. Lisa Dieckmann, Martin Warnke, Meta-Image und die Prinzipien des Digitalen im Mnemosyne-Atlas Aby Warburgs, in: Peter Bell, Lisa Dieckmann und Piotr Kuroczyński (Hg.), Computing Art Reader, Einführung in die digitale Kunstgeschichte, Heidelberg 2018, S. 79–96.
  70. Lisa-Marie Berndt, Künstliche Intelligenz als Kurator, in: Monopol, 12. Dezember 2023: https://www.monopol-magazin.de/kuenstliche-intelligenz-als-kurator (30.10.2025)
  71. Damith Herath, Christian Kroos und Stelarc, Robots and Art: Exploring an Unlikely Symbiosis, New York 2016.
  72. Jens Schröter, ‚Künstliche Intelligenz‘ und die Frage nach der künstlerischen Autor*innenschaft, in: Kunstforum 278, 2021, S. 98–107.
  73. Francis Hunger, Unhype Artificial Intelligence! A Proposal to Replace the Deceiving Terminology, in: Training the Archive – Working Paper 6, Aachen/Dortmund 2023; Michael Klipphahn-Karge, Repräsentation, Kritik und Anlass. Eine Trichotomie der künstlerischen Nutzungsaspekte von KI, in: Richard Groß und Rita Jordan (Hg.), KI-Realitäten. Modelle, Praktiken und Topologien maschinellen Lernens, Bielefeld 2023; S. 287–314; Wolfgang Ullrich, KI-Bilder: Wenn Bilder nur noch Bullshit sind, Die ZEIT, Online, 7. Januar 2025.
  74. Michael Klipphahn-Karge, KI und Medienumbrüche der Künste, in: w/k - Zwischen Wissenschaft & Kunst, 2025: https://doi.org/10.55597/d19585.
  75. Der rechtliche Rahmen für KI hat sich seit 2023 stark verändert. Mit dem „AI Act“ der Europäischen Union, dessen Implementierung schrittweise ab 2025 vorgesehen ist, existiert erstmals ein umfassendes Regulierungswerk, das KI-Systeme nach Risikokategorien klassifiziert und Vorgaben für Transparenz, Sicherheit und Nachvollziehbarkeit macht. Für den Kunstbereich sind insbesondere die Regelungen zu „Generative AI“ relevant: Systeme, die Inhalte eigenständig erzeugen, müssen offenlegen, wenn Werke synthetisch produziert wurden, und sicherstellen, dass Trainingsdaten nicht rechtswidrig verwendet wurden. Parallel dazu wurden seit 2023 mehrere Gerichtsverfahren zur urheberrechtlichen Zulässigkeit von KI-Trainingsdatensätzen geführt, die insbesondere die Frage betreffen, ob das maschinelle Training auf urheberrechtlich geschützten Bildern oder Texten eine erlaubnispflichtige Nutzung darstellt. Während die Rechtsprechung noch uneinheitlich ist, zeichnet sich ab, dass sowohl die Herkunft der Trainingsdaten als auch die Dokumentation ihrer Verwendung zunehmend in den Fokus rückt. Für KI-generierte Kunst bleibt damit weiterhin ungeklärt, wem Urheber- oder Leistungsschutzrechte zustehen oder ob bestimmte KI-Erzeugnisse überhaupt als schutzfähige Werke gelten.
  76. Roland Meyer, Die Ästhetik des digitalen Faschismus: KI und die globale Rechte, in: Frankfurter Allgemeine Sonntagszeitung, 27. April 2024; ders., Angriff auf die Vergangenheit. Wenn US-Behörden historische Bilder von Minderheiten aus dem Netz löschen, wird Datensicherung zum Gebot der Stunde, in: Frankfurter Allgemeine Sonntagszeitung, 16. März 2025, und ders., Platform Realism. AI Image Synthesis and the Rise of Generic Visual Content, in: Transbordeur 9, 2025: https://doi.org/10.4000/13dwq.
  77. Ruha Benjamin, Race after Technology. Abolitionist Tools for the New Jim Code, Cambridge 2019.
  78. Alexander Campolo und Kate Crawford, Enchanted Determinism: Power without Responsibility in Artificial Intelligence, in: Engaging Science, Technology, and Society 6, 2020, S. 1–19.
  79. Hito Steyerl, Medium Hot: Images in the Age of Heat, London 2025.


Verweise

Link zur Literatur im KUBIKAT