Wer ist Autor bei KI? Urheberschaft zwischen Recht, Forschung und Kommunikationsethik

Als ich gelernt habe, Kommunikation zu verstehen, war die Welt noch relativ einfach: Es gab einen Sender, eine Botschaft und einen Empfänger. Dieses klassische Modell beruhte auf einer stillschweigenden Annahme: Hinter jeder Botschaft steht ein Mensch. Doch generative KI stellt diese Grundannahme seit einiger Zeit ernsthaft infrage. Wenn ein Text von einer Maschine erzeugt wird, verschwimmt die klassische Vorstellung von Autorschaft. Die Frage ist deshalb nicht nur technisch oder juristisch. Sie ist zutiefst philosophisch: Kann es Kommunikation ohne Autor geben – oder nur neue Formen von Autorschaft?

Die Frage nach der Urheberschaft von KI-Texten wirkt zunächst wie ein Spezialproblem des Urheberrechts. Tatsächlich berührt sie jedoch einen Kern der Kommunikationswissenschaft und weiterer Disziplinen auch: die Frage, wer überhaupt als Absender von Kommunikation gelten kann.

Bleistiftzeichnung von Jens Krömer, der über Urheberschaft und KI nachzudenken scheint

Ohne menschliche Schöpfung kein Werk: der rechtliche Ausgangspunkt

Nach geltendem europäischen und deutschen Urheberrecht bleibt die Ausgangslage eindeutig: Urheber kann nur ein Mensch sein. Wenn Texte, Bilder, Videos oder Audios nun mithilfe von Tools erzeugt werden – wer ist denn dann „der Mensch“ dahinter? Derjenige, der den Prompt schreibt? Derjenige, der die KI grundlegend programmiert hat? Der CEO des Unternehmens, dessen Tool ich einsetze?

Oder sieht es doch ganz anders aus: Denn juristisch haben rein KI-generierte Inhalte nach heutigem Rechtsverständnis keinen eigenen Urheber.

Die juristische Diskussion konzentriert sich deshalb weniger auf die Maschine als möglichen Autor als vielmehr auf die Frage, ob und wann menschliche Nutzung von KI ausreichend kreativ ist, um Schutz zu begründen.

KI als rechtliche Herausforderung – nicht als Rechtssubjekt

Auch der EU AI Act verfolgt keinen Ansatz, KI als eigenständigen Akteur zu behandeln. Stattdessen reguliert er Risiken, Transparenzpflichten und Verantwortlichkeiten der Anbieter und Nutzer.

Die Verordnung (EU) 2024/1689 gilt als weltweit erstes umfassendes Regelwerk zur Regulierung von KI-Systemen und soll Grundrechte, Sicherheit und Innovation gleichzeitig schützen. Damit zeigt sich eine interessante Prioritätensetzung der europäischen Regulierung: Nicht die Frage, ob KI kreativ ist, steht im Mittelpunkt. Sondern die Frage, wer Verantwortung trägt.

Forschungsperspektive: Autorschaft als verteilte Leistung

Aktuelle Forschungsarbeiten zur Regulierung generativer KI betonen, dass KI-Inhalte nicht als isolierte Produkte entstehen, sondern als Ergebnis komplexer Systeme aus Trainingsdaten, Entwicklern, Plattformen und Nutzern.

Eine rechtswissenschaftliche Analyse zur generativen KI im EU-Recht beschreibt diese Systeme als neue regulatorische Herausforderung, weil klassische Kategorien wie Haftung, geistiges Eigentum und Kontrolle neu austariert werden müssen. 

Kommunikationswissenschaftlich betrachtet entspricht das einem Perspektivwechsel: Autorschaft wird weniger als individueller Ursprung verstanden, sondern als Prozess innerhalb eines sozio-technischen Netzwerks.

Die eigentliche Grauzone: menschlicher Einfluss auf KI-Ergebnisse

Die spannendste juristische Frage ist deshalb nicht, ob KI Autor sein kann, sondern wann der Mensch als Autor gelten kann.

Eine Ausarbeitung des Instituts für Innovation und Technik (iit Berlin), das eng mit deutscher Forschungslandschaft und Politikberatung verbunden ist, zeigt, dass entscheidend bleibt, ob der Mensch tatsächlich kreative Steuerung ausübt oder lediglich automatisierte Prozesse anstößt. „Ausgehend von der skizzierten Rechtslage ist bei diesen Inhalten zu unterscheiden, ob es sich um reine KI-Werke ohne menschlichen Einfluss handelt, oder das KI-generierte Ergebnis von Menschen verändert und weiterbearbeitet wird. Rein maschinelle KI-Erzeugnisse sind nicht urheberrechtlich geschützt und somit gemeinfrei, also ohne jegliche Restriktionen frei nutzbar“, schreibt Maximilian Burger.

Damit entsteht eine neue Differenzierung: Nicht jede KI-Nutzung ist kreative Tätigkeit. Aber manche kann es sein. Diese Unterscheidung dürfte für Kommunikationsberufe künftig zentral werden.

Training von KI: der eigentliche Konflikt zwischen Technik und Urheberrecht

Auch unabhängig vom individuellen Einsatz ergeben sich Fragen, wie KI denn überhaupt so gut werden konnte, wie wir sie heute erleben. Schon 2023 beschäftigte sich Prof. Dr. Malte Stieper von der Martin-Luther-Universität Halle-Wittenberg mit der Frage des Trainings der KI mit urheberrechtlich geschützten Werken. Er stellt die folgenden Zitate gegenüber.

Einerseits: „Die Verwendung digitaler kultureller Güter als Trainingsdaten treibt folgerichtig die zweite Entwicklung voran, die für Urheber:innen und ausübende Künstler:innen und ihre administrativen Partner:innen existenzbedrohend ist: Der Output generativer KI konkurriert ab Erscheinen mit den Werken, die zu seiner Erzeugung herangezogen wurden“, Matthias Hornschuh.

Andererseits: „Als ein allgemeiner Grundsatz kann gelten, daß der Urheber insbesondere dort im Interesse der Allgemeinheit freien Zugang zu seinen Werken gewähren muß, wo dies unmittelbar der Förderung der geistigen und kulturellen Werte dient, die ihrerseits Grundlage für sein Werkschaffen sind.“, Amtl. Begr. zum UrhG, BT-Drucks. IV/270, S. 63

Dieser umstrittene Punkt in Forschung und Rechtswissenschaft über die Nutzung urheberrechtlich geschützter Inhalte als Trainingsdaten wird wohl noch einige Relevanz entfalten.

Die europäische Rechtsentwicklung zeigt hier ein Spannungsfeld zwischen Innovationsförderung und Schutz kreativer Leistungen, etwa durch Text- und Data-Mining-Regeln der DSM-Richtlinie und neue Dokumentationspflichten für KI-Anbieter.

Die rechtliche Kernfrage lautet dabei nicht nur: Darf KI mit bestehenden Werken trainiert werden? Sondern auch: Wie transparent muss dieser Prozess sein? 

Transparenz statt Autorschaft als neue Regulierungsidee

Aktuelle Forschung zum EU-AI-Act zeigt, dass Transparenzinstrumente wie Kennzeichnungspflichten oder technische Identifizierbarkeit (z. B. Watermarking) helfen sollen, Verantwortlichkeiten nachvollziehbar zu machen. Empirisch-rechtliche Studien zu diesen Mechanismen zeigen, dass solche technischen Maßnahmen zunehmend als Teil regulatorischer Anforderungen betrachtet werden.

Das ist bemerkenswert, weil es einen Paradigmenwechsel erkennen lässt: Die Regulierung verschiebt sich von der Frage der kreativen Herkunft zur Frage der Nachvollziehbarkeit.

Was das für Kommunikation bedeutet

Für Kommunikationsberufe ergibt sich daraus eine vielleicht überraschend klassische Erkenntnis: Auch wenn Texte technisch von KI erzeugt werden, bleibt die kommunikative Verantwortung beim Menschen.

Nicht weil er alles kontrolliert. Sondern weil er auswählt, verwendet und veröffentlicht.

Damit kehrt die moderne KI-Debatte zu einem sehr alten Prinzip der Kommunikationsethik zurück: Verantwortlich ist nicht nur, wer etwas sagt. Sondern wer entscheidet, dass es gesagt wird.

Die eigentliche Zukunftsfrage

Die vielleicht wichtigste Veränderung durch KI betrifft deshalb weniger das Recht als unser Verständnis von Kommunikation. Wenn Inhalte zunehmend in Zusammenarbeit zwischen Menschen und Maschinen entstehen, wird Autorschaft möglicherweise weniger eine Frage exklusiver Zuschreibung als eine Frage transparenter Beteiligung.

Oder anders formuliert: Die Frage der Zukunft ist vielleicht nicht mehr: Wer ist der Autor? Sondern: Wer übernimmt sichtbar Verantwortung in einer Kommunikation, die nicht mehr allein menschlich entsteht? Und vielleicht war genau das schon immer die reifere Definition von Autorschaft.

Sie beschäftigen sich mit KI in Ihrer Kommunikation? Als PR-Berater unterstütze ich Organisationen dabei, KI strategisch, rechtssicher und glaubwürdig in ihre Kommunikation zu integrieren.

Die drei meistgelesenen Beiträge im Tagebuch

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert