Künstler können ihre eigenen Werke vergiften und so die KI in die Irre führen
Künstler können ihre Werke mit dem Nightshade Tool „vergiften“
In einer Welt, in der künstliche Intelligenz (KI) immer mehr an Bedeutung gewinnt, stehen Künstler vor der Herausforderung, ihre Werke vor unerlaubtem Scraping zu schützen. Ein Team der Universität Chicago hat ein innovatives Softwaretool namens “Nightshade” entwickelt, das Künstlern dabei hilft, ihre Bilder zu “vergiften” und so KI-Systeme davon abzuhalten, sie unerlaubt zu scrapen.
Quellen: This new data poisoning tool lets artists fight back against generative AI | MIT Technology Review
Artists can now poison their images to deter misuse by AI • The Register
Forschungs-Paper: https://arxiv.org/abs/2310.13828 (Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models – Cornell University)
Wikipedia: Die Cornell University ist eine US-amerikanische Privatuniversität mit Hauptcampus in Ithaca, New York. Sie ist eine der acht Universitäten der Ivy League und zählt zu den renommiertesten Universitäten der Welt.
Was bedeutet „Scraping“?
Scraping bezeichnet das automatische Sammeln von Daten aus dem Internet. Im Kontext der KI wird Scraping oft verwendet, um große Mengen an Daten für das Training von KI-Modellen zu sammeln. Allerdings kann dies zu Urheberrechtsverletzungen führen, wenn die Daten ohne Erlaubnis genutzt werden.
Was macht Nightshade?
Nightshade ist ein offensives Datenvergiftungswerkzeug, das Bilder so verändert, dass sie für KI-Modelle, die ohne Erlaubnis trainiert werden, unverdaulich werden. Es verändert die Pixel eines Bildes auf subtile Weise, die für das menschliche Auge fast unsichtbar sind, aber die maschinellen Lernalgorithmen dazu veranlassen, das Bild als etwas anderes zu interpretieren, als es tatsächlich zeigt.
Zum Beispiel könnte das menschliche Auge ein schattiertes Bild einer Kuh auf einer grünen Wiese als weitgehend unverändert wahrnehmen, aber ein KI-Modell könnte eine große Ledertasche im Gras sehen. Nightshade wurde entwickelt, um die Kosten für das Training auf unlizenzierten Daten zu erhöhen, so dass das Lizenzieren von Bildern von ihren Schöpfern eine praktikable Alternative wird.
Künstler und Unis entwickeln Gegenmaßnahmen zur KI
Künstler und Universitäten arbeiten zusammen, um effektive Gegenmaßnahmen gegen das unerlaubte Scraping von KI zu entwickeln. Neben Nightshade gibt es auch ein defensives Stilschutzwerkzeug namens Glaze, das Künstlern hilft, ihren persönlichen Stil vor dem Scraping durch KI-Unternehmen zu schützen.
Link zum Glaze Download und der Glaze-Website
Diese Werkzeuge sind ein wichtiger Schritt, um das Kräfteverhältnis von KI-Unternehmen zurück zu den Künstlern zu verschieben und einen starken Abschreckungseffekt gegen die Missachtung von Urheberrechten und geistigem Eigentum zu schaffen. Mit Nightshade und ähnlichen Werkzeugen können Künstler nun aktiv gegen die unerlaubte Nutzung ihrer Werke vorgehen und so ihre kreativen Rechte schützen.
Die Forscher hoffen nun, dass Nightshade nicht nur eine Abschreckung für KI-Unternehmen darstellt, sondern auch dazu beiträgt, die Rechte der Künstler zu stärken und einen respektvolleren Umgang mit deren Werken zu fördern. OpenAI, Meta, Google und Stability AI verwenden für ihre KI Generatoren gerne auch Werke namhafter Künstler.
ML