Schutz der eigenen Werke vor KI-Training

Schutz der eigenen Werke vor KI-Training

Künstliche Intelligenz hat die Kreativbranche in den letzten Jahren vor neue Herausforderungen gestellt. KI-Bildgeneratoren und große Sprachmodelle werden mit Milliarden vorhandener Bilder und Texte trainiert – oft ohne Einwilligung der Urheberinnen und Urheber. Für Kreative aus den Bereichen Design, Illustration und Fotografie stellt sich daher immer mehr die Frage, wie sie ihre Werke wirksam davor schützen können, ungefragt in solchen Trainingsdatensätzen zu landen.

Dieser Beitrag beleuchtet den aktuellen Stand (August 2025) der gängigen Schutzmöglichkeiten. Von technischen Barrieren wie robots.txt und Wasserzeichen über spezielle Tools zur Datenvergiftung bis hin zu rechtlichen Opt-Out-Regelungen und Zukunftskonzepten. Dabei wird gezeigt, was aktuell möglich ist, wo Grenzen liegen und welche offenen Fragen bleiben.

Technische Schutzmaßnahmen für Online-Inhalte

Eine erste Verteidigungslinie bilden sicherlich technische Maßnahmen auf der eigenen Website oder beim Veröffentlichen der Werke. Zwar bieten sie keinen absoluten Schutz, dennoch lassen sich damit das massenhafte Scrapen und das ungefragte Datensammeln deutlich erschweren.

Schutz vor KI-Training

robots.txt und Meta-Tags

Über eine robots.txt-Datei können Website-Betreiber Crawler anweisen, bestimmte Bereiche nicht zu durchsuchen oder zu kopieren. Seit 2023 respektieren z.B. die Crawler von OpenAI (GPTBot) und Google Bard entsprechende Regeln – man kann sie per robots.txt gezielt aussperren. Ergänzend dazu gibt es spezielle Meta-Tags wie <meta name="robots" content="noai, noimageai">, die DeviantArt und andere Plattformen eingeführt haben. Diese Tags signalisieren »kein KI-Training erlaubt« für Seiteninhalt bzw. Bilder. Sie funktionieren ähnlich wie noindex für Suchmaschinen und sollen seriösen KI-Crawlern klarmachen, dass die Daten nicht genutzt werden dürfen.

Allerdings gilt: Nur »brave« Crawler halten sich daran. Ein böswilliger Scraper wird diese Anweisungen höchstwahrscheinlich ignorieren. Dennoch werden solche maschinenlesbaren Opt-Outs in der EU zunehmend als erforderlich angesehen. So dürfte eine korrekt konfigurierte robots.txt als wirksames Opt-Out für kommerzielles Text- und Data-Mining durchaus zählen. An einem W3C-Standard für genau solche Opt-Out-Tags wird momentan noch gearbeitet. Kreative haben somit also die Möglichkeit, zumindest den »Willen zur Nicht-Nutzung für KI« unmissverständlich auszudrücken.

Wasserzeichen (sichtbar & unsichtbar)

Viele Fotodesigner und Illustratoren versehen Online-Bilder mit sichtbaren Wasserzeichen oder Copyright-Hinweisen. Diese erschweren zwar nicht das Scrapen an sich, können aber die direkte Weiterverwendung der Bilder unattraktiv machen. Sie dienen zudem als eindeutiger Hinweis, dass das Werk urheberrechtlich geschützt ist. KI-Trainingsalgorithmen können sichtbare Wasserzeichen theoretisch ignorieren oder herausrechnen, dennoch mindert ein auffälliges Wasserzeichen den ästhetischen Wert und kann so abschreckend auf Crawler wirken.

Unsichtbare Wasserzeichen (etwa per spezielle Markierungstools) bieten einen anderen Ansatz: Sie verändern das Bild minimal (für das menschliche Auge unmerklich) und fügen dem digitalen Inhalt eine weitere Spur hinzu. So ließe sich später möglicherweise nachweisen, ob ein KI-Modell ein bestimmtes Bild verwendet hat, falls sich Reste dieser Signatur in generierten Bildern wiederfinden. Unternehmen wie z.B. Adobe arbeiten im Rahmen der Content Authenticity Initiative an Technologien, digitale Inhalte mit Herkunftsinformationen und Nutzungsrechten zu versehen (z.B. »nicht für KI verwenden« in Metadaten). Wichtig ist: Wasserzeichen bieten auch keinen absoluten Schutz, da sie entweder entfernt oder von KIs umgangen werden könnten. Dennoch erhöhen sie den Aufwand für Datenmisbrauch und unterstreichen den Rechtsanspruch am Werk.

Honeypots und Fallen für Scraper

Eine kreativ-technische Idee ist, gezielt Fallen für Datenkraken zu stellen. Beispielsweise könnte man auf der eigenen Website bestimmte Dummy-Bilder oder -Texte einbinden, die ein normaler Besucher nie zu Gesicht bekommt (etwa winzige Pixel-Grafiken oder weißer Text auf weißem Hintergrund), die aber für Webcrawler sichtbar sind. Greift ein Scraper ungefiltert alles ab, nimmt er diese markierten Honeypot-Inhalte mit. So kann man etwa einzigartige Inhalte einschleusen und dann später versuchen zu erkennen, ob sie in einem Datensatz oder KI-Ausgabe auftauchen – ein Indikator, dass der Crawler sich unerlaubt bedient hat.

Honeypots können sogar so gestaltet werden, dass sie automatische Scraper ausbremsen oder in die Irre führen. Ein Beispiel ist Kudurru, ein Tool von Spawning.ai, das KI-Crawler aktiv blockiert oder umleitet – selbst solche, die angeblich Opt-Out-Signale ignorieren. Es funktioniert derzeit etwa als Plugin für WordPress und verweigert verdächtigen Anfragen den Zugriff oder liefert falsche Daten zurück. Diese Maßnahmen sind technisch avanciert und erfordern etwas Web-Know-how, können aber eine effektive zusätzliche Hürde darstellen.

Rate-Limiting und JS-Fingerprinting

Eine pragmatische Maßnahme gegen massenhaftes Scrapen ist auch, die Zugriffsraten einzuschränken und Bots zu identifizieren. Durch sogenanntes »Rate-Limiting« auf dem Webserver lässt sich festlegen, wie viele Anfragen pro Minute von einer IP-Adresse zulässig sind. Menschliche Nutzer werden davon kaum beeinträchtigt, ein Crawler jedoch, der tausende Seiten in kurzer Zeit abrufen will, lässt sich auf diese Weise ausbremsen oder sperren. In Kombination damit setzen einige Websites zudem auf Browser-Fingerprinting und JavaScript-Hürden, um automatische Bots zu erkennen. Dabei wird z.B. erwartet, dass der Client JavaScript ausführt oder bestimmte Interaktionen vornimmt, die ein einfacher Scraper nicht kann. Erfüllt ein Besucher diese Kriterien nicht, könnte der Server ihm weniger oder gar keinen Inhalt liefern.

Solche Techniken sind vergleichbar mit CAPTCHA-Tests oder Anti-Bot-Diensten und können zumindest unerfahrene Scraper abschrecken. Professionelle Datenakquisiteure umgehen viele dieser Hürden (etwa durch verteilte Proxy-Netzwerke und headless Browser mit JS-Unterstützung). Dennoch gilt: Jede zusätzliche Barriere erhöht den Aufwand und die Kosten für das unbefugte Sammeln von Inhalten. Außerdem suchen viele Crawler dann eher den Weg des geringsten Widerstands.

Schutz vor KI einrichten

Spezial-Tools: Nightshade & Glaze als »Vergiftung« von KI-Trainingsdaten

Ein innovativer Ansatz, der speziell von und für Künstlerinnen und Künstler entwickelt wurde, ist das gezielte »Vergiften« der eigenen Bilder, um KI-Modelle durcheinanderzubringen. Zwei prominente Tools aus der Forschung der University of Chicago sind Glaze und Nightshade.

Glaze

Dieses Tool (seit ca. Anfang 2023 bekannt) fügt einem Kunstwerk minimale stilistische Veränderungen hinzu, die vom menschlichen Auge praktisch nicht bemerkt werden. Das Bild sieht für uns unverändert aus, doch ein KI-System, das es verarbeitet, wird in die Irre geführt. Glaze zielt darauf ab, den persönlichen Stil einer Künstlerin oder Künstlers zu verschleiern, sodass ein Bildgenerator diesen Stil nicht korrekt aus den geschützten Werken erlernen kann. Vereinfacht gesagt: Wenn ein KI-Modell trotz Glaze mit den Bildern trainiert, soll es nicht mehr erkennen, was der typischer Stil ist – das Modell »versteht« die ästhetischen Merkmale falsch.

Nightshade

Dieses neuere Tool (ca. Ende 2023 vorgestellt) geht noch einen Schritt weiter. Das Tool verändert die Pixel eines Bildes auf subtile Weise so, dass für Menschen alles normal aussieht, für die KI jedoch giftige Signale enthalten sind. Beim Training lernt das Modell falsche Zusammenhänge: Es verknüpft z.B. den Zeichenstil eines Comics absichtlich mit den falschen Begriffen oder Objekten. Die Entwicklerinnen und Entwickler berichten, dass schon relativ wenige dieser vergifteten Bilder ausreichen, um einen KI-Bildgenerator aus dem Tritt zu bringen. In Experimenten mit Stable Diffusion führte das Einspielen von 50 manipulierten Bildern (die z.B. Hunde fälschlich als Katzen deklarierten) zu erkennbaren Verzerrungen bei generierten Hunden; bei 300 vergifteten Bildern waren die Ergebnisse so stark beschädigt, dass kaum noch hundeähnliche Merkmale übrig blieben. Nightshade soll künftig in Glaze integriert werden, sodass ein Werkzeug beide Schutzmethoden vereint.

Diese Ansätze geben Kreativen jedenfalls eine aktive Gegenwehr in die Hand: „Die Künstler haben endlich etwas, das sie tun können“, kommentierte die Kunsthistorikerin Marian Mazzone die Veröffentlichung von Nightshade. Allerdings sind auch hier Grenzen und Risiken zu beachten. Nightshade wirkt nur proaktiv, d.h. es schützt vor zukünftigen Modellen, aber bereits trainierte KI-Systeme können nicht nachträglich »entgiftet« werden.

Zudem warnen Expertinnen und Experten, dass solche Techniken wiederum von findigen KI-Entwicklern ausgehebelt werden könnten. Tatsächlich hat ein internationales Forscherteam 2025 mit LightShed ein Verfahren vorgestellt, das genau das macht: Es erkennt die typischen Glaze/Nightshade-Störungen in Bildern und entfernt sie weitgehend, sodass die ursprünglichen Bilder wieder für KI-Training nutzbar werden. In Tests konnte LightShed 99,98 % der vergifteten Bilder aufspüren und erfolgreich »reparieren«. Die Köpfe hinter LightShed betonen, dass es nicht ihr Ziel ist, Künstler zu schaden, sondern aufzuzeigen, dass bisherige Schutzmethoden allein nicht ausreichen.

Rechtliche Rahmenbedingungen: Opt-Out, DSGVO und die kommende AI-Verordnung

Neben technischen Mitteln sollten Kreative auch die rechtlichen Hebel kennen. In der EU gibt es bereits Vorschriften, die das ungenehmigte Verwerten geschützter Werke einschränken – zumindest auf dem Papier.

KI-Recht

Text- und Data-Mining-Ausnahme (EU-Recht)

Im Urheberrecht der EU wurde 2019 eine Regelung geschaffen, die automatisches Durchsuchen und Analysieren geschützter Inhalte für Zwecke wie KI-Training erlaubt (Text and Data Mining, TDM). Allerdings unterscheidet man: Für reine Forschung (nicht-kommerziell) gilt eine großzügige Ausnahme. Für kommerzielle Zwecke (also z.B. das Training eines gewinnorientierten KI-Dienstes) gilt dann der Artikel 4 der DSM-Richtlinie, der den Rechteinhabern ein Opt-Out ermöglichen soll. Das heißt: Urheberinnen und Urheber können der Verwendung ihrer Werke für Data-Mining widersprechen. Dieses Opt-Out muss allerdings ausdrücklich und maschinenlesbar erfolgen. Praktisch kann das (solange es keinen spezifischen Standard gibt) über eine robots.txt-Datei oder Metadaten geschehen.

Ein Beispiel: Die Hamburger Gerichtsentscheidung im Fall Kneschke vs. LAION (2023/24) legte nahe, dass schon klare Verbote in den Website-Nutzungsbedingungen oder per robots.txt als wirksames Opt-Out gelten können. Allerdings ist diese Auslegung noch umstritten und hängt von zukünftigen Urteilen ab. Fest steht: Wer als Urheber nicht will, dass seine Bilder für KI »gescraped« werden, könnte auf diese Weise seine Rechte »reservieren«, sprich irgendwo deutlich kenntlich machen, dass kein Einverständnis zum TDM vorliegt. Dann sind nämlich KI-Entwickler (eigentlich) gezwungen, diese Werke bei kommerziellem Training auszunehmen – zumindest in Ländern, die die EU-Richtlinie umgesetzt haben.

DSGVO (Datenschutz) und Persönlichkeitsrechte

Fotografinnen und Fotografen sollten bedenken, dass Bilder von realen Personen in der EU unter den Datenschutz (DSGVO) fallen. Ein Porträtfoto enthält personenbezogene Daten. Diese dennoch für KI zu benutzen, kann gegen Datenschutzrecht verstoßen. Aktuell wird jedoch noch rege diskutiert, unter welchen Bedingungen das Training von KI-Modellen mit öffentlich verfügbaren personenbezogenen Daten zulässig ist.

Die französische Datenschutzbehörde CNIL hat im Juni 2025 klargestellt, dass ein KI-Training auf öffentlich zugänglichen Personendaten unter Umständen auf die Rechtsgrundlage des »berechtigten Interesses« gestützt werden kann. Dies trifft allerdings nur bei strenger Abwägung und entsprechenden Schutzmaßnahmen zu. So dürfe z.B. nicht von Websites gescraped werden, die das ausdrücklich verbieten (etwa via robots.txt), und es müssen Erwartungen der Betroffenen berücksichtigt werden.

Wichtig ist: Selbst wenn das Datenschutzrecht mit viel gutem Willen ein solches Training erlaubt, heißt das nicht, dass damit Urheberrechte oder andere Gesetze ausgehebelt werden. Das KI-Training bewegt sich demnach anscheinend in einem Spannungsfeld mehrerer Rechtsbereiche. Kreative sollten daher im Hinterkopf haben, dass eigene Persönlichkeitsrechte (etwa am eigenen Bild) ebenfalls ein Hebel sein können: Beispielsweise könnten Fotografinnen und Fotografen argumentieren, dass das Abbild einer Person aus ihrer Sammlung nicht ohne DSGVO-konformen Grund verarbeitet werden darf. Dieses Thema ist komplex, aber es schafft zusätzlichen rechtlichen Druck auf KI-Anbieter, gerade in Europa vorsichtiger zu agieren.

EU AI Act (KI-Verordnung)

Die Europäische Union arbeitet an einer umfassenden KI-Verordnung, deren weitere Bestimmungen voraussichtlich 2025/26 in Kraft treten. Darin werden nicht nur Risikostufen für KI-Systeme geregelt, sondern auch Vorgaben für große generative Modelle (Foundation Models) gemacht. Nach aktuellem Stand wird die EU-Verordnung Anbieter solcher Modelle verpflichten, Urheberrechte zu respektieren und den Einsatz urheberrechtlich geschützter Werke offenzulegen. Insbesondere müssen Anbieter „state of the art“-Methoden einsetzen, um Opt-Out-Wünsche von Rechteinhabern zu erkennen und zu befolgen.

Das bedeutet: KI-Firmen dürfen sich nicht blind stellen, sondern müssen aktiv danach suchen, ob ein bestimmter Datensatz oder Website die Nutzung untersagt – sei es durch maschinenlesbare Kennzeichnungen oder sogar in natürlichen Sprachformulierung (wie z.B. in Nutzungsbedingungen). Diese Verpflichtung erhöht den Druck, Opt-Out-Register und technische Ausschlusslisten zu implementieren. In der Praxis haben einige Unternehmen bereits reagiert: So arbeiten Entwicklerinnen und Entwickler an Tools, mit denen Kreative ihre Werke direkt bei den KI-Anbietern melden und von Trainings ausschließen können. OpenAI etwa kündigte ein „Media Manager“-Tool an, über das Inhalteigentümer ihre Werke registrieren und deren Verwendung in KI-Modellen steuern können. Bis August 2025 wartet die Branche allerdings noch auf die tatsächliche Umsetzung solcher Versprechen. Kritiker monieren außerdem, dass OpenAI sein Opt-Out-Tool noch schuldig geblieben ist.

Nichtsdestotrotz: Mit Inkrafttreten der EU KI-Verordnung sollen sich dann Anbieter, die auf dem europäischen Markt tätig sind, theoretisch an striktere Regeln halten müssen. Für Kreativschaffende ist das ein Hoffnungsschimmer, dass der Schutz ihrer Werke künftig nicht mehr allein in ihren eigenen Händen liegt, sondern regulatorisch untermauert wird.

Innovative Konzepte: »Machine Unlearning« und modulare KI-Modelle

Angesichts der genannten Schwierigkeiten wird in Forschung und Industrie an längerfristigen Lösungen gearbeitet, um den Interessenausgleich zwischen Kreativen und KI zu verbessern.

Machine Unlearning

Machine Unlearning (Das Vergessen beibringen)

Wie kann man ein KI-Modell etwas wieder ablernen? Diese Frage gewinnt an Bedeutung, wenn etwa geschützte Daten irrtümlich in einen Trainingssatz gelangt sind oder Nutzer ihr »Recht auf Vergessenwerden« geltend machen. Aktuell ist das Entfernen spezifischer Trainingsdaten aus einer bereits trainierten KI äußerst aufwendig – oft bleibt nur, das Modell komplett neu zu trainieren. Machine Unlearning erforscht Algorithmen, die gezielt die Spuren bestimmter Daten im Modell löschen.

Erste Ansätze in der Forschung zeigen, dass man z.B. ein neuronales Netz mit Gegenbeispielen oder speziellen Updates veranlassen kann, einen bestimmten Lernerfolg rückgängig zu machen.In der Praxis 2025 hat anscheinend noch kein großer KI-Dienst eine vollumfängliche Unlearning-Funktion integriert. Es existieren allerdings schon Prototypen, etwa für das Vergessen einzelner Bilder in Multimodal-Modellen.Gerade im Lichte von Datenschutz-Anforderungen (Stichwort DSGVO Art. 17, Recht auf Löschung) könnte Machine Unlearning in Zukunft essentiell werden.

Für Kreative dürfte das perspektivisch bedeuten: Sollten eigene Werke doch einmal ungewollt in einem KI-Modell landen, könnte es eine technische Möglichkeit geben, sie nachträglich wieder entfernen zu lassen – sofern entsprechende Gesetze es verlangen und die Technik tatsächlich auch ausgereift ist. Bis dahin bleibt das jedoch eher eine Vision als eine unmittelbar verfügbare Lösung.

Modulare KI-Architekturen (z.B. FlexOlmo)

Eine andere vielversprechende Entwicklung ist der Bau von KI-Modellen, die von vornherein datenflexibel sind. Ein Beispiel aus 2025 ist das Forschungsprojekt FlexOlmo. Die Idee dahinter: Statt ein riesiges Modell auf allen Daten monolithisch zu trainieren, setzt FlexOlmo auf eine Mixture-of-Experts-Architektur. Unterschiedliche Teile des Modells werden getrennt auf einzelnen Datensätzen trainiert und später zu einem Gesamtsystem zusammengefügt.Beim Textmodell FlexOlmo wurden z.B. Module mit bestimmten Domänen- oder Eigentümer-Datensätzen separat gelernt.

Der Clou: Beim Einsatz des Modells (Inference) kann man flexibel steuern, welche Datenquellen einbezogen oder ausgeschlossen werden, ohne das Modell neu trainieren zu müssen. Ein Datenanbieter könnte also seinen »Experten« beisteuern, der die Leistung erhöht, aber dieses Modul auch zurückziehen, falls er seine Daten nicht mehr teilen will. In Experimenten zeigte FlexOlmo, dass die Kombination eines allgemein auf öffentlichen Daten gelernten Basismodells mit zuschaltbaren Experten aus geschlossenen Datensätzen gut funktioniert – zum Teil mit ca. 41 % Leistungsverbesserung gegenüber dem Basismodell.

Wichtig aus Sicht von Urhebern: Solche Architekturen ermöglichen eine präzise Kontrolle, welche Trainingsdaten im Modell aktiv sind. Dateninhaber behalten die »Hoheit«, weil ihre Daten lokal separat verarbeitet werden und das Gesamtmodell modular ist.Zwar ist FlexOlmo derzeit ein Forschungsprototyp und auf Sprachmodelle fokussiert, doch ähnliche modulare Ansätze könnten auch für Bild-KIs relevant werden. Sie bieten einen Weg, den »Alles schluckende Datenstaubsauger«-Modellen der ersten Generation etwas entgegenzusetzen: Wenn KI-Systeme künftig so gebaut sind, dass Datenblöcke austauschbar sind, könnten Urheber leichter Opt-Out umsetzen, indem einfach ihr Modul entfernt wird. Bis dahin scheint es allerdings noch ein sehr weiter Weg zu. Außerdem müssten sich solche Systeme erst in der Praxis bewähren.

KI-Schutzmaßnahmen

Wie wirksam sind die Schutzmaßnahmen wirklich?

Zum Abschluss ein (eher nüchterner) Blick auf die Realität im Jahr 2025: Kein einziger der genannten Ansätze garantiert vollständigen Schutz davor, dass eigene Werke in KI-Trainingssets landen. Viele Methoden entfalten nur Wirkung, wenn sich die Gegenseite kooperativ zeigt. Zum anderen lassen sich die Systeme umgehen:

  • Technische Website-Sperren wie robots.txt und noai-Tags wirken nur auf Crawler, die sich freiwillig(!) daran halten. Nicht jeder KI-Betreiber fühlt sich daran gebunden. Einige haben in der Vergangenheit scheinbar alles Erreichbare gescannt, um auf ihren Datenbestand zu kommen.
  • Aktive Schutztools wie Glaze/Nightshade zeigen den Willen der Community, sich zu wehren, doch Unternehmen könnten sie als feindlichen Akt auffassen. Einige KI-Anbieter versuchen womöglich, solche vergifteten Daten prinzipiell auszufiltern – was wiederum ungewollt dazu führt, dass bestimmte Kreative von vornherein aus den Datensätzen ausgeschlossen werden. Das mag aus Künstlersicht so richtig sein, aber es birgt sicherlich auch das Risiko, dass man in Zukunft möglicherweise pauschal geblockt wird, wenn solche Tools zum Einsatz kommen (z.B. weil ein »Fingerprint« von Glaze erkannt wird). Außerdem entwickeln sich Gegentechniken wie LightShed, die genau diese Art von »Bild-Vergiftungen« neutralisieren können.
  • Juristische Schritte und neue Gesetze sind im Kommen. Doch noch klafft eine Lücke zwischen Recht und Wirklichkeit. Bis der EU AI Act tatsächlich greift und weltweit respektiert wird, befinden wir uns in einer Art Grauzone. Selbst wenn europäische Gerichte zugunsten der Urheber entscheiden, bleibt die Frage offen, wie das bei global agierenden KI-Firmen durchgesetzt wird. Einige Anbieter – vor allem kleinere oder solche außerhalb westlicher Rechtsräume – könnten Opt-Out-Forderungen schlicht ignorieren.
  • Einschränkungen und Kollateraleffekte: Manche Schutzmaßnahmen können auch unerwünschte Nebenwirkungen haben. Sichtbare Wasserzeichen etwa stören nicht nur KI, sondern auch die menschlichen Betrachter und potenziellen Auftraggeber. Starkes Rate-Limiting oder aggressive Anti-Bot-Systeme können Besucher frustrieren, wenn sie die Webseite besuchen. Und wer gar keine Werke mehr online stellt aus Angst vor KI-Diebstahl, verliert womöglich an Sichtbarkeit.

Fazit

Kreativschaffenden stehen so viele Mittel wie nie zuvor zur Verfügung, um ihre Bilder, Illustrationen und Texte vor unerlaubter KI-Nutzung zu schützen. Von technischen Barrieren über kreative Sabotage-Tools bis hin zu rechtlichen Opt-Out-Möglichkeiten. Die Palette reicht weit – jedenfalls auf dem Papier. Gleichzeitig sollten man jedoch realistisch bleiben: Die Wirksamkeit mancher Methode ist deutlich begrenzt, vor allem wenn KI-Anbieter nicht kooperieren wollen. Dennoch zeichnen sich positive Entwicklungen ab – sei es durch Forschungsprojekte wie FlexOlmo, die neue technische Lösungen ermöglichen sollen, oder durch Initiativen, die in Zukunft den Rechtsrahmen zugunsten von Urheberinnen und Urhebern verbessern könnten.

 

Quellen: 1), 2), 3), 4), 5), 6), 7), 8), 9), 10)

Kommentieren

Ich akzeptiere die Datenschutzerklärung.