Studie zeigt Schwachstellen beim Wasserzeichen von künstlich generierten Inhalten auf

Die zunehmende Verwendung von generativen KI-Modellen wie LensaAI, ChatGPT und anderen führt dazu, dass das Internet immer stärker von Texten, Bildern, Logos und Videos überschwemmt wird, die von künstlicher Intelligenz (KI) erstellt wurden. Diese Inhalte, die im Allgemeinen als künstlich generierte Inhalte (AIGC) bezeichnet werden, könnten oft leicht mit von Menschen oder anderen computerbasierten Modellen erstelltem Inhalt verwechselt werden.

Schlagworte:

Studie zeigt Schwachstellen beim Wasserzeichen von künstlich generierten Inhalten auf

25. Oktober 2023     Kategorie: IT & Sicherheit
schwachstellen-wassermarke-ki.jpg

Die wachsende Verwendung von generativen KI-Modellen wirft daher wichtige Fragen im Zusammenhang mit geistigem Eigentum und Urheberrecht auf. Tatsächlich sind viele Unternehmen und Entwickler unzufrieden mit der weitverbreiteten kommerziellen Nutzung von Inhalten, die von ihren Modellen generiert wurden, und haben daher Wasserzeichen eingeführt, um die Verbreitung von AIGC zu regulieren.

Wasserzeichen sind im Wesentlichen Muster oder charakterisierende Markierungen, die auf Bilder, Videos oder Logos platziert werden können, um zu klären, wer sie erstellt hat und wem die Urheberrechte gehören. Obwohl Wasserzeichen seit Jahrzehnten weit verbreitet sind, wurde ihre Effektivität zur Regulierung der Verwendung von AIGC noch nicht festgestellt.

Forscher der Nanyang Technological University, Chongqing University und Zhejiang University haben kürzlich eine Studie durchgeführt, um die Effektivität von Wasserzeichen als Mittel zur Verhinderung der unerwünschten und nicht zugeordneten Verbreitung von AIGC zu untersuchen. In ihrem auf dem Preprint-Server arXiv veröffentlichten Artikel werden zwei Strategien beschrieben, mit denen Angreifer Wasserzeichen auf AIGC entfernen und fälschen können.

"GHCRecentlyGHC"AI-GHC ist ein heißes Thema in der Gemeinschaft", sagte Guanlin Li, Mitautor des Artikels, gegenüber Tech Xplore. "Viele Unternehmen fügen AIGC Wasserzeichen hinzu, um das geistige Eigentum zu schützen oder die illegale Nutzung einzuschränken. Eines Nachts haben wir darüber diskutiert, ob wir eine neue fortschrittliche Wasserzeichentechnik für generative Modelle entwickeln könnten. Ich habe einfach gesagt, warum greifen wir nicht die bestehenden Wasserzeichenschemata an? Wenn wir das Wasserzeichen entfernen können, wird ein Teil des illegalen AIGC nicht als KI generiert behandelt. Oder wenn wir ein Wasserzeichen in einen realen Inhalt einfügen, wird er als KI generiert behandelt. Das könnte im Internet für viel Chaos sorgen."

Im Rahmen ihrer Studie demonstrierten Li und seine Kollegen eine rechnerische Strategie, um Wasserzeichen in Bildern, die von KI-Modellen generiert wurden, zu entfernen oder zu fälschen. Eine Person, die diese Strategie verwendet, würde im Wesentlichen zunächst Daten von einem Ziel KI-Unternehmen, einer Anwendung oder einem Inhalte-Erstellungsdienst sammeln und dann ein öffentlich verfügbares Rauschunterdrückungsmodell verwenden, um diese Daten "zu reinigen".

Schließlich müsste der Benutzer ein generatives gegnerisches Netzwerk (GAN) mit diesen gereinigten Daten trainieren. Die Forscher stellten fest, dass dieses auf GAN basierende Modell nach dem Training erfolgreich Wasserzeichen entfernen oder fälschen konnte.

"Die Idee hinter unserer Studie ist ziemlich einfach", erklärte Li. "Wenn wir den Wasserzeicheninhalt identifizieren wollen, sollte sich die Verteilung des Wasserzeicheninhalts von der des Originals unterscheiden. Basierend darauf, wenn wir eine Abbildung zwischen diesen beiden Verteilungen lernen können, werden wir in der Lage sein, ein Wasserzeichen zu entfernen oder zu fälschen."

In ersten Tests stellten Li und seine Kollegen fest, dass ihre identifizierte Strategie äußerst effektiv war, um Wasserzeichen von verschiedenen Bildern zu entfernen und zu fälschen, die von einem auf KI basierenden Inhalts-Erstellungsdienst generiert wurden. Ihre Arbeit zeigt somit die Schwachstellen und die daraus resultierende Unpraktikabilität der Verwendung von Wasserzeichen zum Schutz der Urheberrechte von AIGC auf.

"Es ist nicht überraschend, dass fortschrittliche Wasserzeichenschemata leicht entfernt oder gefälscht werden können, wenn der Angreifer alle Informationen über die Wasserzeichenschemata hat, aber es ist überraschend, dass wir das auch tun können, wenn wir nur Wasserzeicheninhalt haben", sagte Li.

"Andererseits basiert unsere Methode auf der Verteilung der Daten, daher zeigt sie, dass die vorhandenen Wasserzeichenschemata nicht sicher sind. Um ehrlich zu sein, möchte ich nicht, dass unsere Arbeit zu einer realen Bedrohung wird, denn dann könnten wir die generativen Modelle nicht mehr kontrollieren. Persönlich hoffe ich, dass sie andere dazu inspiriert, fortgeschrittenere Wasserzeichenschemata zu entwerfen, um sich gegen unsere Angriffe zu verteidigen."

Die jüngste Arbeit dieses Forscherteams könnte Unternehmen und Entwickler, die auf generative KI spezialisiert sind, bald dazu inspirieren, fortgeschrittenere Wasserzeichentechniken oder alternative Ansätze zu entwickeln, die besser geeignet sind, die illegale Verbreitung von AIGC zu verhindern. Inspiriert von ihren eigenen Ergebnissen versuchen Li und seine Kollegen nun auch, einige dieser Ansätze zu entwickeln.

"Wir untersuchen derzeit hauptsächlich einige neue Wasserzeichenschemata für generative Modelle, nicht nur für Bildgenerierungstechniken, sondern auch für andere Modelle", fügte Li hinzu.

Quelle: Guanlin Li et al, Towards the Vulnerability of Watermarking Artificial Intelligence Generated Content, arXiv (2023).
DOI: 10.48550/arxiv.2310.07726