Ein US-Bundesgericht hat in einem viel beachteten Verfahren entschieden, dass das KI-Unternehmen Anthropic beim Training seiner Sprachmodelle auf gekaufte Bücher im Rahmen des US-Urheberrechts rechtmäßig gehandelt hat. Die Entscheidung könnte weitreichende Folgen für die gesamte KI-Branche haben, da sie erstmals eine juristische Grundlage für die Nutzung urheberrechtlich geschützter Werke im KI-Training schafft.
Hintergrund des Verfahrens
Die Klage wurde von den Autoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson eingereicht. Sie warfen Anthropic vor, ihre Werke ohne Zustimmung und Vergütung für das Training des KI-Modells Claude verwendet zu haben. Im Kern ging es um zwei Aspekte: Einerseits die Nutzung von legal erworbenen, physisch vorliegenden Büchern, die von Anthropic digitalisiert wurden; andererseits um den Vorwurf, Millionen von Büchern aus sogenannten „Shadow Libraries“ – also illegalen Online-Quellen – bezogen und zentral gespeichert zu haben.
Kernpunkte des Urteils
Richter William Alsup entschied, dass das Training von KI-Modellen auf der Basis von gekauften und digitalisierten Büchern unter den Fair-Use-Grundsatz des US-Urheberrechts fällt. Er begründete dies mit dem „transformierenden“ Charakter der Nutzung: Die KI nutze die Werke nicht, um sie zu kopieren oder zu ersetzen, sondern um daraus etwas Neues zu schaffen. Das Training sei vergleichbar mit dem Lesen und Lernen eines Menschen, der sich von verschiedenen Stilen inspirieren lässt, ohne diese direkt zu übernehmen.
Zitat aus dem Urteil:
„Anthropic’s LLMs haben nicht die kreativen Elemente eines Werks reproduziert, sondern aus Tausenden Werken einen neuen Stil destilliert. Das ist keine wettbewerbliche Verdrängung, die das Urheberrecht schützen soll.“
Offene Fragen und weitere Verfahren
Das Urteil bezieht sich explizit auf Bücher, die Anthropic legal erworben und anschließend digitalisiert hat. Nicht abgedeckt sind jedoch Fälle, in denen Bücher aus illegalen Quellen bezogen wurden. Hier muss sich Anthropic in einem separaten Prozess verantworten. Richter Alsup stellte klar, dass das Speichern und Nutzen von Millionen raubkopierter Bücher nicht unter Fair Use fällt und gegebenenfalls Schadensersatzforderungen nach sich ziehen kann.
Ungeklärt bleibt zudem, ob und inwieweit die von KI-Systemen produzierten Ausgaben selbst Urheberrechte verletzen. Diese Frage ist Gegenstand weiterer laufender Verfahren und dürfte die Debatte um KI und Urheberrecht in den kommenden Jahren prägen.
Bedeutung für die Branche
Das Urteil verschafft KI-Unternehmen eine erste rechtliche Orientierung, wie sie mit urheberrechtlich geschützten Werken im Trainingsprozess umgehen können. Für Unternehmen und Entwickler ergibt sich daraus eine gewisse Planungssicherheit, solange sie auf legal erworbene Inhalte zurückgreifen. Gleichzeitig zeigt der Fall, dass die Nutzung illegal beschaffter Daten weiterhin erhebliche rechtliche Risiken birgt.
Für Rechteinhaber und Autoren bleibt die Situation angespannt. Auch wenn das Urteil den Fair-Use-Grundsatz stärkt, bleibt die Frage offen, wie ihre Interessen im Zeitalter generativer KI langfristig geschützt werden können. Die Diskussion um eine mögliche Anpassung des Urheberrechts dürfte weiter an Fahrt gewinnen.
Das Urteil im Fall Anthropic markiert einen wichtigen Meilenstein im Spannungsfeld zwischen technologischem Fortschritt und Urheberrecht. Es schafft erstmals Klarheit für den Umgang mit legal erworbenen Werken im KI-Training, lässt aber zentrale Fragen, insbesondere zur Nutzung illegaler Inhalte und zur Haftung für KI-generierte Ausgaben, weiterhin offen. Unternehmen sollten daher ihre Datenquellen sorgfältig prüfen und die weitere Entwicklung aufmerksam verfolgen.
Externer Link zum Thema:
Schreibe einen Kommentar