Im aktuell laufenden US-Verfahren Bartz et al. v. Anthropic PBC stehen grundlegende Fragen zum Urheberrecht beim KI-Training auf dem Prüfstand. Das US-amerikanische Unternehmen Anthropic, Entwickler des Sprachmodells Claude, nutzte laut Sammelklage für dessen Training insgesamt rund 7 Millionen Bücher aus Bibliotheksdatenbanken – darunter etwa 5 Millionen aus LibGen und 2 Millionen aus PiLiMi, beides als sogenannte «pirate libraries» bekannt.
Im September 2025 legte Anthropic einen Vergleichsvorschlag über 1,5 Milliarden US-Dollar (zzgl. Zinsen) vor – die bislang grösste öffentliche Entschädigung im Zusammenhang mit KI und Urheberrecht. Die Summe bezieht sich allerdings nur auf ca. 500’000 Werke, die klar identifiziert werden konnten und bestimmte Voraussetzungen erfüllen:
i) Sie müssen über eine ISBN/ASIN verfügen,
ii) binnen fünf Jahren nach Veröffentlichung beim US Copyright Office registriert worden sein und
iii) spätestens drei Monate vor dem Download (LibGen: Juni 2021; PiLiMi: Juli 2022) eingetragen gewesen sein.
Das zuständige Gericht hat diesen Vergleich am 25. September 2025 vorläufig genehmigt. Über eine endgültige Genehmigung wird noch entschieden.
Anspruchsberechtigung und Selbst-Prüfung
Anspruchsberechtigt sind grundsätzlich alle Rechteinhaber eines Buches, das innerhalb der beiden genannten Datensätze von Anthropic kopiert wurde. Über eine öffentliche Online-Liste können Betroffene prüfen, ob ihr Werk ebenfalls illegal zum Training verwertet wurde und können bejahendenfalls einen Anspruch anmelden. ProLitteris empfiehlt Rechteinhabern, das Formblatt auszufüllen, selbst wenn die Hoffnung auf eine hohe Auszahlung im Einzelfall begrenzt ist.
Rechtliche Bewertung
Das Gericht beurteilte im Juni 2025 das Training von KI-Systemen mit urheberrechtlich geschützten – auch nicht autorisierten! – Werken noch als «fair use», da der Zweck der Nutzung als transformativ gelte und keine konsumierbaren Kopien entstünden. Als nicht zulässig wurde demgegenüber die Speicherung und Archivierung von Raubkopien aus Schattenbibliotheken erachtet. Das Urteil betraf ausdrücklich keinen Endentscheid zu KI-generierten Werken, sondern fokussierte sich auf die Nutzung und Speicherung von Kopien aus illegalen Quellen.
Der nun vorgeschlagene Vergleich soll Anthropic rückwirkend von Ansprüchen für die bisherige Verwendung dieser Daten befreien. Künftige Trainingsmassnahmen sind davon nicht erfasst, ebenso wenig wie potenzielle Ansprüche im Fall von neuen Urheberrechtsverletzungen oder Ansprüche aus der Nutzung von Werken, die nicht fristgerecht beim U.S. Copyright Office registriert wurden. Rechteinhaber ausserhalb der USA – etwa in der Schweiz – sind damit nicht automatisch von einer allfälligen Streitbeilegung betroffen.
Fazit
Das vorliegende Verfahren hatte ursprünglich zum Ziel, klären zu lassen, ob das Training von LLMs mit unautorisierten Werken als Urheberrechtsverletzung anzusehen ist. Diese Kernfrage trat jedoch im Verlauf des Verfahrens zunehmend in den Hintergrund: Während Anthropic zwar verpflichtet wurde, verbliebene Kopien der Trainingsdaten zu löschen und eine Vergleichszahlung zu leisten, bleibt das trainierte Modell – Claude – bestehen und nutzt weiterhin das erlernte Wissen.
Daraus wird ein ungelöstes Problem ersichtlich: Die aktuellen Auseinandersetzungen zielen auf Datenlöschung, nicht aber auf das „Vergessen“ bereits übernommener Informationen. Während aktuelle «Machine‑Unlearning»‑Methoden noch nicht in der Lage sind, Trainingseinflüsse komplexer LLMs vollständig zu löschen, wächst das Interesse an diesem Ansatz. Dies gerade auch im Hinblick auf Regulierungsmechanismen wie den EU AI Act, dessen Grundprinzipien voraussichtlich auch für die Schweiz bedeutsam sein werden.
Neuerer Forschung zufolge könnte «Machine Unlearning» jedenfalls zu einem entscheidenden Bindeglied zwischen technischer KI‑Forschung und Rechtswissenschaft werden, sofern es gelingt, die bestehenden technischen und – vor allem – rechtlichen Lücken gemeinsam zu schliessen.
Autorin: Egzona Nikaj
Der Beitrag gibt ausschliesslich die persönliche Auffassung der Autorin wieder.