Gericht erlaubt KI-Training mit Büchern: Sieg für Anthropic – Warnung für alle Fair Use für KI wird erstmals bestätigt – doch illegale Datenquellen könnten für Anthropic teuer werden. Wie weit geht das Urteil wirklich? Kurzfassung | Andreas Becker, 26.06.25
gpt-image-1 | All-AI.de EINLEITUNG Ein US-Gericht hat entschieden, dass das KI-Unternehmen Anthropic Bücher für das Training seiner Modelle verwenden darf – sofern sie aus legalen Quellen stammen. Das Urteil stützt sich auf die Fair-Use-Doktrin und stärkt damit erstmals sichtbar die Position von KI-Entwicklern. Gleichzeitig bleibt der Zugriff auf raubkopierte Werke streng untersagt. Auch Meta bekam vor Gericht Rückenwind. Doch was genau bedeuten diese Entscheidungen für die Zukunft der KI-Entwicklung? NEWS Teilerfolg für Anthropic Die Klage von drei Autorengruppen gegen Anthropic zielte auf die Verwendung urheberrechtlich geschützter Bücher im Training des Sprachmodells Claude. Das Gericht bestätigte nun, dass der Einsatz solcher Inhalte rechtlich zulässig sein kann – vorausgesetzt, sie wurden legal erworben. Richter William Alsup bezeichnete den Vorgang als „transformativ“, da Claude keine Kopien erzeugt, sondern eigene Inhalte schafft. Der Vergleich mit dem menschlichen Lernprozess diente dabei als rechtliche Argumentationslinie: Lesen, Verstehen, Neues formulieren. Klare Grenze bei illegalen Quellen Parallel wurde aber auch bekannt, dass Anthropic über sieben Millionen Werke aus Plattformen wie LibGen in seine Trainingsdaten aufgenommen hatte. Hier endete das Verständnis des Gerichts. Für diese Inhalte ordnete der Richter ein separates Verfahren an, in dem mögliche Schadensersatzsummen verhandelt werden – in einzelnen Fällen könnten bis zu 150.000 Dollar pro Werk fällig werden. Damit wird deutlich: Der legale Zugriff entscheidet über die Zukunftsfähigkeit von KI-Unternehmen. Auch Meta mit Rückenwind Im Verfahren Meta gegen eine Gruppe namhafter Autorinnen und Autoren urteilte ein weiteres Gericht in San Francisco zugunsten des Tech-Konzerns. Die Kläger konnten nicht belegen, dass ihre Werke durch den Einsatz im KI-Training wirtschaftlich geschädigt wurden. Obwohl das Urteil nur diesen Einzelfall betrifft, wird es in der Branche als Signal gewertet. Entscheidend sei nicht allein die Nutzung, sondern auch die Frage, ob ein wirtschaftlicher Schaden entsteht. Gerichtsurteile mit Signalwirkung Beide Entscheidungen markieren einen juristischen Wendepunkt. Sie zeigen, dass KI-Training mit urheberrechtlich geschützten Inhalten rechtlich möglich ist – allerdings nur unter klaren Bedingungen. Während beim Urteil gegen Anthropic der Transformationscharakter im Vordergrund stand, spielte bei Meta die Marktwirkung die zentrale Rolle. Daraus ergibt sich für Entwickler eine doppelte Verantwortung: Inhalte müssen nicht nur legal beschafft, sondern auch sinnvoll eingebettet werden. Konsequenzen für die Branche Mit den Entscheidungen beginnt für die KI-Industrie eine Phase der Neuorientierung. Unternehmen müssen Prozesse etablieren, um legale Inhalte zuverlässig zu identifizieren. Gleichzeitig rückt die Diskussion um sogenannte Memorization Detection in den Fokus – technische Verfahren, um sicherzustellen, dass KI-Modelle keine Textpassagen auswendig lernen und reproduzieren. Auch Lizenzmodelle mit Verlagen rücken stärker in den Mittelpunkt, um langfristig Rechtssicherheit zu schaffen. AUSBLICK Wegmarken statt Sackgassen Die Debatte um Fair Use beim KI-Training hat mit den Urteilen neue Konturen bekommen. Wer seine Trainingsdaten auf legalem Weg beschafft und klug verarbeitet, bewegt sich auf solidem Boden. Wer auf Raubkopien setzt, riskiert hohe Strafen – und den Verlust seines Rufs. Für die Branche heißt das: weg vom wilden Sammeln, hin zu systematischer Kuratierung. Das Verfahren gegen Anthropic, das im Dezember in die nächste Runde geht, wird zeigen, wie teuer ein Datenleck werden kann. Doch gerade diese Entwicklung könnte der KI-Industrie helfen, erwachsen zu werden. Fair Use wird damit nicht zur Freifahrkarte, sondern zur Leitplanke – mit viel Raum für Innovation, aber klarer Abgrenzung zum Missbrauch. UNSER ZIEL Wir wollen hauptberuflich über Künstliche Intelligenz berichten und dabei immer besser werden. Du kannst uns auf dem Weg unterstützen! Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
Ein US-Gericht erlaubt Anthropic, legal erworbene Bücher zum KI-Training zu nutzen – dank Fair Use.
Gleichzeitig droht dem Unternehmen ein Verfahren wegen der Nutzung illegaler Quellen wie LibGen.
Auch Meta erhielt in einem separaten Fall juristischen Rückenwind, allerdings ohne Präzedenzwirkung.
Die Urteile zwingen die Branche zu klaren Richtlinien für legale Datenbeschaffung beim KI-Training.
QUELLEN
Reuters (Anthropic)
Wired
Reuters (Meta)
Publishers Weekly
Business Insider
Quelle: All-AI.de – KI-News, KI-Tutorials, KI-Tools & mehr Weiterlesen