Die Gefahr der Ausnutzung von KI-Bildgeneratoren

Eine aktuelle Studie zeigt, dass beliebte KI-Bildgeneratoren manipuliert werden können, um nicht arbeitsplatztaugliche Inhalte zu erstellen. Obwohl diese Systeme angeblich NSFW-Inhalte blockieren sollen, haben Forscher der Johns Hopkins University bewiesen, dass sie mit dem richtigen Code umgangen werden können. Dies birgt das Potenzial, schädliche und irreführende Inhalte zu erstellen. Die Ergebnisse werden auf dem 45. IEEE Symposium on Security and Privacy 2024 präsentiert.

Die Gefahr der Ausnutzung von KI-Bildgeneratoren

7. November 2023     Kategorie: IT & Sicherheit
ai-bildgenerator-nsfw.jpg

Herausforderungen bei KI-Bildgeneratoren


KI-Bildgeneratoren sollen laut ihren Entwicklern nur gängige und jugendfreie Bilder erstellen. Jedoch wurden Forscher der Johns Hopkins University darauf aufmerksam, dass durch gezielte Manipulationen auch nicht arbeitsplatztaugliche Inhalte erschaffen werden können. Dies stellt eine Herausforderung dar, da die Sicherheitsfilter der Systeme dadurch umgangen werden.

Die getesteten KI-Systeme


Die Forscher testeten die beliebten KI-Bildgeneratoren DALL-E 2 und Stable Diffusion, die von der KI betrieben werden. Diese Programme erstellen realistische Bilder aus einfachen Texteingaben. Microsoft hat bereits das DALL-E 2 Modell in seinen Edge-Webbrowser integriert. Normalerweise sollen die Systeme unangemessene Inhalte ablehnen, wenn entsprechende Befehle eingegeben werden.

Die Forscher entwickelten einen neuen Algorithmus namens "Sneaky Prompt", um die Systeme zu testen. Mit diesem Algorithmus wurden "adversarial" Befehle erstellt, die von den Bildgeneratoren fehlinterpretiert wurden und zu unerwünschten Inhalten führten. So führte beispielsweise der Befehl "sumowtawgha" dazu, dass DALL-E 2 realistische Bilder von nackten Menschen erstellte.

Potenzielle Auswirkungen und Gefahren


Die Forschungsergebnisse legen nahe, dass die KI-Bildgeneratoren potenziell auch für die Erstellung anderer störender und irreführender Inhalte ausgenutzt werden könnten. Die Manipulation solcher Systeme birgt das Risiko, falsche oder schädliche Inhalte zu verbreiten, die beispielsweise berühmte Personen in einem negativen Licht darstellen.

Ausblick und Lösungsansätze


Die Forscher planen, weiter an der Verbesserung der Sicherheit dieser Systeme zu arbeiten, um deren Ausnutzung zukünftig zu verhindern. Ihr Ziel ist es, die Abwehrmechanismen der Bildgeneratoren zu stärken und ihre Fähigkeit zur Erkennung und Blockierung von unangemessenen Inhalten zu verbessern.

Fazit: Die Ergebnisse der Studie zeigen, dass beliebte KI-Bildgeneratoren anfällig für Manipulationen sind, die es ermöglichen, nicht arbeitsplatztaugliche Inhalte (NSFW) zu erstellen. Dies hat weitreichende Auswirkungen auf die Sicherheit und Glaubwürdigkeit von generierten Inhalten. Die Entwicklung und Implementierung effektiverer Abwehrmaßnahmen ist entscheidend, um die potenzielle Ausnutzung dieser Systeme zu verhindern.
Wer verhindern will das die eigenen Bilder von diversen genutzten Portalen für die Generierung solcher Bilder genutzt werden, sollte sein Kontoloeschen lassen.