US-Gericht entscheidet über Rechte, Pflichten und Grenzen im KI-Zeitalter
Der Fall zwischen dem KI-Startup Anthropic und mehreren US-Autoren bringt frischen Wind in eine der zentralen Debatten des KI-Zeitalters: Wie weit darf Künstliche Intelligenz beim Lernen gehen – und wo beginnt der Missbrauch geistigen Eigentums?
Fair Use – aber nicht um jeden Preis
Dieses Bild wurde mit Midjourney generiert
Laut einem Urteil eines US-Bundesrichters durfte Anthropic – das Unternehmen hinter dem Sprachmodell Claude – urheberrechtlich geschützte Bücher im Rahmen des „Fair Use“ nutzen, um seine KI zu trainieren. Die Nutzung wurde vom Gericht als „hochgradig transformativ“ bewertet: Claude verarbeitet Inhalte nicht wie ein Kopierer, sondern eher wie ein Mensch, der liest, versteht und daraus lernt.
Doch das Urteil hat eine klare Grenze gezogen: Die dauerhafte Speicherung von über 7 Millionen piratierten Büchern in einer internen Trainingsdatenbank sei keinesfalls vom Fair-Use-Prinzip gedeckt. Dieses Vorgehen verletze die Rechte der Urheber massiv und sei nicht zulässig.
Was heißt das für die Branche?
Das Urteil ist ein Meilenstein mit Signalwirkung. Es definiert erstmals rechtlich sauber, dass das Trainieren einer KI mit urheberrechtlich geschützten Inhalten erlaubt sein kann, die Speicherung in großem Stil jedoch illegal bleibt, wenn sie ohne Erlaubnis der Rechteinhaber erfolgt. Damit rücken künftig Transparenz und Datenethik noch stärker in den Fokus von KI-Trainingsprojekten.
Schadensersatz folgt im Dezember
Im Dezember 2025 folgt die nächste Runde: Dann entscheidet das Gericht über mögliche Schadensersatzzahlungen an die betroffenen Autor:innen. Das Urteil wird bereits jetzt als Präzedenzfall für kommende Auseinandersetzungen zwischen Verlagen, Kreativen und KI-Unternehmen gehandelt – und dürfte auch den Diskurs in Europa und Asien maßgeblich prägen.