Nightshade »vergiftet« Bilder für KI-Modelle
Forschende der Universität Chicago haben ein kostenloses Tool entwickelt, das Bilder für KI-Modelle »vergiften« kann. Damit lassen sich Werke von Kreativen mit Falschinformationen versehen. Neben der Version für Windows ist das Tool seit kurzem auch für Mac verfügbar.
Kreativschaffende, die nicht möchten, dass ihre Werke ohne ausdrückliche Genehmigung für generative KI-Bilderstellungen verwendet werden, hatten bisher wenig Möglichkeiten, dem entgegenzuwirken. Mit Nightshade haben Forschende der Universität Chicago ein Tool geschaffen, das KI-Syteme beim maschinellen Erlernen von Bildern sabotieren kann.
Durch subtile Anpassungen von Daten auf Pixelebene, die für das menschliche Auge kaum erkennbar sind, werden KI-Modelle daran gehindert, Bilder korrekt zu interpretieren und in ihrem Trainingsdaten zu übernehmen. Die Daten können so verändert werden, dass KI-Modelle beispielsweise Bilder von Autos als Kühe wahrnehmen.
Download des »KI-Bildvergifters«
Nightshade steht als ausführbares Programm für Windows und Mac zum kostenlosen Download zur Verfügung. Die Forschende empfehlen außerdem, das Tool in Kombination mit dem ebenfalls bei der Universität Chicago entstandene Abwehr-Tool Glaze zu verwenden.
Welche Voraussetzungen Computer zum Ausführen erfüllen müssen und was bei der Installation des Programms zu beachten ist, haben die Forschende in einer kurzen Anleitung zusammengefasst.