Geniale Methode zum Schutz eigener Bilder vor selbstlernender KI

bilder ki schutz

Ich kann mir sehr gut vorstellen, dass es einige Fotografen gibt -professionell oder privat- die ungern ihre eigenen Bilder für die exorbitant hungrigen KIs (ja, es sind inzwischen VIELE) zum Anlernen zur Verfügung stellen wollen. Es ist aktuell völlig unklar und insgesamt höchst unwahrscheinlich, dass hier irgendwann Urheber am Verwertungsprozess beteiligt werden.

Wie kann ich meine Bilder schützen?

Mit dem Aufschwung der KI und ihren immer umfangreicheren Möglichkeiten sind jedoch Bedenken hinsichtlich der Verwendung dieser Fotos zum Training von KI-Modellen aufgekommen.

Die großen Cloud-Anbieter haben zwar Datenschutzerklärungen, aber die Realität sieht so aus, dass öffentlich einsehbare Fotos leicht kopiert und in KI-Modelle integriert werden können. Diese massenhafte Datenerfassung hat zu dem riesigen Informationsbestand beigetragen, der die generative KI antreibt. Selbst bei Unternehmen, die das Scraping ihrer Nutzer verbieten, hat man festgestellt, dass sie es indirekt über andere Dienstanbieter unterstützen, wie das Beispiel von Meta, früher bekannt als Facebook, zeigt.

Um dieses Problem zu bekämpfen, haben Forscher des MIT das Projekt PhotoGuard ins Leben gerufen, das gestohlene Bilder für KI-Anwendungen unbrauchbar machen soll. Auch wenn es schwierig sein dürfte zu verhindern, dass echte Fotos in KI-generierten Bildern verwendet werden, liegt der Schwerpunkt darauf, den Kontext des Originalfotos zu erhalten. So soll es für KI-Modelle schwierig sein, eine Person in eine andere Umgebung zu versetzen oder ihre Kleidung zu verändern – eine Aufgabe, die sich mit Software wie Photoshop erstaunlich leicht bewältigen lässt.

Wie erklärt sich die Funktionsweise?

Die Betrachtungsweise von KI-Modellen hinsichtlich von Bildern unterscheidet sich fundamental von der menschlichen Wahrnehmung. Die KI erfasst ein Bild als ein komplexes Gefüge mathematischer Datenpunkte, welche die Farbe und Position eines jeden Pixels beschreiben – eine sogenannte latente Repräsentation des Bildes. Der Encoder-Angriff führt subtile Anpassungen in dieser mathematischen Darstellung durch, wodurch das KI-Modell das Bild als eine zufällige Entität interpretiert. Folglich wird jeglicher Versuch, das Bild mithilfe des Modells zu manipulieren, nahezu unmöglich gemacht. Die vorgenommenen Veränderungen sind dermaßen marginal, dass sie für das menschliche Auge unsichtbar sind, wodurch die visuelle Integrität des Bildes erhalten bleibt, während gleichzeitig seine Sicherheit gewährleistet wird.

Der zweite und deutlich anspruchsvollere »Diffusions«-Angriff zielt gezielt auf das gesamte Diffusionsmodell ab. Dabei wird ein gewünschtes Zielbild festgelegt und ein Optimierungsprozess initiiert, um das generierte Bild eng an dieses zuvor ausgewählte Zielbild anzupassen.

Bei der Umsetzung erzeugen die Forscher Veränderungen im Eingaberaum des Originalbildes. Diese Veränderungen werden daraufhin während der Inferenzphase verwendet und auf die Bilder angewendet, wodurch ein robuster Schutz gegen unbefugte Manipulation gewährleistet wird.

»Die Fortschritte in der KI, die wir derzeit erleben, sind wahrhaftig atemberaubend, jedoch ermöglichen sie sowohl nützliche als auch bösartige Anwendungen«, betont der MIT-Professor für EECS und CSAIL-Principal Investigator Aleksander Madry, welcher auch als Autor an der Studie beteiligt ist. »Es ist daher dringlich geboten, dass wir bestrebt sind, die letztgenannten Aspekte zu identifizieren und in ihrer Wirkung zu mildern. In diesem Kontext betrachte ich PhotoGuard als unseren bescheidenen Beitrag zu diesem äußerst bedeutungsvollen Bestreben.«

Der Diffusionsangriff erfordert mehr Rechenleistung im Vergleich zu seinem einfacheren Pendant und beansprucht erheblichen GPU-Speicher. Das Team bemerkt, dass eine Annäherung des Diffusionsprozesses mit weniger Schritten das Problem abschwächt und folglich die Technik praktikabler gestaltet.

Um den Angriff anschaulicher zu vermitteln, lässt sich dies am Beispiel eines Kunstprojekts veranschaulichen. Das Originalbild ist eine Zeichnung, während das Zielbild eine vollkommen abweichende Zeichnung darstellt. Der Diffusionsangriff gleicht dem Vornehmen winziger, für das menschliche Auge unsichtbarer Änderungen an der ersten Zeichnung, sodass sie für das KI-Modell beginnt, der zweiten Zeichnung ähnlich zu werden. Für das menschliche Auge bleibt die Originalzeichnung hingegen unverändert.

Sinngemäß übersetzte Funktioserklärung vom MIT

Die Forscher haben zwei Techniken, sogenannte »Angriffe«, entwickelt, die echten Fotos unmerkliche Daten hinzufügen und die KI-Modelle verwirren. Diese Encoder- und Diffusionsangriffe haben bei stabilen Diffusionsmodellen (zB. Stable Diffusion XL 1.0) vielversprechende Ergebnisse gezeigt, indem sie Bilder mit fehlenden Bereichen oder verzerrten Merkmalen erzeugten, die sie erkennbar unwirklich machten.

Ausblick in die Zukunft

Dieser Prozess führt jedoch zu einem Wettrüsten, bei dem sich die KI-Modelle anpassen und diese Immunisierungstechniken überwinden könnten. Wie bei der Erkennung von Malware auf einem Computer beginnt das Spiel mit jeder Gegenmaßnahme von Neuem. Die Bekämpfung der KI-Verbreitung erfordert jedoch nicht nur technische Lösungen, sondern auch politisches Engagement. Die Nachrichten der letzten Woche über das umfassende Engagement der US-Tech-Industrie im Bereich der KI, einschließlich der Kennzeichnungspflicht für berechnete Inhalte, geben inmitten des KI-Hypes Hoffnung. Während gesetzliche Regelungen wie das KI-Gesetz der Europäischen Union noch ausstehen, zeigt der Ansatz des MIT, dass das Problem auf mehreren Ebenen angegangen wird.

Video: DIE BESTE KI, UM BILDER ZU ERZEUGEN

Für diejenigen unter uns, die gerne fotografieren, ist die Zunahme von KI-generierten Fälschungen zu einem dringenden Problem geworden. Im Urlaub fragen wir uns vielleicht: »Was passiert mit unseren Fotos?«, da wir uns der Möglichkeit ihres Missbrauchs immer bewusster werden. Während wir unsere Abenteuer festhalten, gewinnt der Schutz unserer Bilder an Bedeutung. Die Integration von Schutzmechanismen wie rückverfolgbare Wasserzeichen oder die Verwendung von PhotoGuard-ähnlichen Verfahren direkt in der Kamera könnten einige Lösungen bieten.

Jetzt, wo der Sommer vor der Tür steht, ist es an der Zeit, die Momente in Ehren zu halten, Fotos zu machen und sie vorerst auf Speicherkarten und SSDs zu sichern. In der sich ständig weiterentwickelnden Landschaft der künstlichen Intelligenz sind sowohl technische als auch politische Bemühungen entscheidend, um die Privatsphäre und die Integrität unserer Fotos zu schützen.

Tom Scharlock
Tom Scharlock

PWA.ist ein PWA App Store, ein Blog, eine Video Wissensseite und die Agenturpräsenz der PRGRSV ::Agentur Arnstadt. Ganz neu sind die PWA & WEB Tools Meine Biografie

Artikel: 123