Deepfakes per App in wenigen Sekunden
Gefährlicher Trend mit KI-Nacktbildern
In den Medien wurde weltweit in den letzten zwei Wochen über einen Fall von KI-generierten Nacktbildern von spanischen Schülerinnen berichtet. Nicht zuletzt erregte der Fall aufsehen, da die Eltern der Mädchen diesen gemeinsam an die Öffentlichkeit gebracht haben. Die völlig echt aussehenden Nacktbilder basierten auf Instagramm-Bildern – eine Smartphone App erledigte die Fälschungen, die meist nur für Profis zu erkennen sind. Dieser Fall aus dem spanischen Almendralejo ist kein Einzelfall und immer wieder werden Deepfakes für Mobbing und Erpressung genutzt. Entsprechende KI-Tools sind frei verfügbar und werden offen beworben. Sie sind der besonders verstörende Teil eines größeren Trends rund um sogenannte „Not Safe For Work“ Bilder und Videos, denn die verwendete Technologie ist identisch.
Die Anbieter agieren dabei in einer legalen Grauzone und versuchen ihre Produkte entweder als harmlosen Party-Spaß zu positionieren – bis hin zum Servicetool für professionelle Content-Schöpfer in der Pornografie. Mit Alibi-Disclaimern verweisen sie darauf, dass eine ungefragte Nutzung von Ausgangsbildern Dritter und eine ungewollte Veröffentlichung in den Ländern der User eventuell strafbar sein könnte. Doch selbst das ist juristisch nicht überall eindeutig. Denn technologisch handelt es sich nicht um Bildbearbeitung, sondern um „Generative KI“.
Die vielfältigen Einsatzszenarien der Deepfake-Technologie machen die Weiterentwicklung lukrativ und man sollte Fälle wie die der spanischen Mädchen, die Opfer von gefälschten Nacktbildern geworden sind, nicht als Einzelfälle von jugendlichen Mitschülern abtun. Die Bandbreite der ethischen und rechtlichen Fragen, die Deepfakes -als die schmutzige Seite der Generativen KI- aufwerfen ist groß. Ebenso das Angebot solcher Tools und Apps. Eine einfache Suche im Netz führt in wenigen Sekunden zu mehreren Dutzend kommerziell vermarkteten KI-Lösungen, nur für „ClothOff“-Deepfakes – inklusive Test- und Vergleichsseiten.
In fünf Schritten kleiderlos
Auch im Bereich der gefälschten Nacktbilder arbeitet die KI mit Trainingsdaten. Die Modelle werden mit einer großen Anzahl von Bildern gefüttert, nackten wie bekleideten Menschen. Ziel der KI ist es, und das ist auch juristisch wichtig, einen neuen Inhalt zu generieren – wenngleich täuschend ähnlich. Der „Entkleidungs“-Vorgang erfolgt dann in fünf Schritten:
Bildanalyse
Zuerst wird das Foto, auf dem die Person bekleidet ist, von der App analysiert. Besonderes Augenmerk liegt auf den Bereichen, die Kleidung tragen.Segmentierung
Die Software segmentiert den menschlichen Körper und trennt ihn von anderen Elementen des Fotos wie Hintergrund oder Objekten.Datensatz und Mustererkennung
Die App verfügt ja über einen Datensatz von nackten menschlichen Körpern oder Körperteilen und vergleicht diesen mit der segmentierten Form auf dem Foto.Generierung
Der generative Algorithmus wird nun verwendet, um die Kleidung "zu entfernen", indem er die Form und Textur des nackten Körpers aus dem Datensatz auf die segmentierte Form im Originalfoto überträgt.Verfeinerung
Schließlich wird das generierte Bild noch weiter verfeinert, um Farbunterschiede, Schattierungen und andere Details anzupassen, sodass das Endresultat realistisch aussieht.
Der letzte Schritt soll das Bild für den flüchtigen Betrachter täuschend echt machen, erlaubt dem Profi aber bislang noch Indizien für den KI-Einsatz zu finden, denn oft wird mit künstlicher Unschärfe gearbeitet. Auf den Displays der Smartphones fällt dies hingegen nicht auf. Für den Laien wird es immer schwieriger, generierte Bilder von echten zu unterscheiden.
Natürlich entkleidet die KI die Bilder nicht wirklich, sondern verwendet ja Elemente ihrer Trainingsdaten, so dass die nackten Deepfake-Körper oft perfekter, in jedem Fall aber abweichend aussehen als die der echten Menschen oder Opfer auf den Ausgangsfotos. Eine 15-jährige Schülerin kann so von der KI beim ungewollten „Ausziehen“ mit dem Körper einer 24-jährigen Erotikdarstellerin versehen werden. Denn die Trainingsdaten stammen meist aus dem Erotik- und Pornografie-Business.
Das weite Feld der "Not Safe For Work" Anwendungen
Deepfakes stellen eine weitreichende Gefahr da, denn sie erschüttern das Vertrauen in die Aussage- und Beweiskraft von Bilder und Videos. Dabei muss es nicht nur um Nacktheit gehen. Die ethischen Implikationen sind enorm und reichen von der Verletzung der Privatsphäre bis zu potenzieller sexueller Belästigung, von der Manipulation bis hin zur politischen Einflussnahme. Da die generierten Bilder technisch gesehen nicht echt sind, ist derzeit ein rechtlicher Hebel in vielen Ländern nur über Umwege zu erzielen. Zum Beispiel über die fehlende Einwilligung der dargestellten Personen. Von der Schülerin bis hin zum Politiker oder Star. Oder natürlich, wenn Mobbing, Rufschädigung oder Erpressung nachgewiesen werden kann. Das entlastet die Entwickler und Anbieter der KI-Tools und verlagert die rechtliche Verantwortung derzeit weitgehendst auf die Nutzer. Das könnte sich künftig im Rahmen weitergehender KI-Regulierung ändern.
Neu sind die immer geringeren technischen Voraussetzungen für (fast) perfekte Deepfakes auf Anwenderseite. Gar nicht neu sind die Anwendungsszenarien. Bildfälschungen gab es immer und auch Themen wie „Revenge Porn“, also der Veröffentlichung von intimen Bildern ohne Zustimmung. Aus Rache oder zur Erpressung. Und auch der riesige Bedarf des Adult-Entertainments und der Porno-Industrie an immer neuen Bildern und Videos ist nicht neu. Da kommt Generative KI wie gerufen.
Der enorme technologische Fortschritt in Sachen Künstlicher Intelligenz und die hohen Investitionen in Sachen Training von KI-Modellen wird möglich, da es vielfältigste Anwender gibt, die bereit sind für Deepfakes zu bezahlen. Das Angebot für 25 Dollar alle Personen in der Fotosammlung auf dem Smartphone nackt zu sehen ist dabei nur die Spitze eines gewaltigen Eisbergs. Die Technologie beginnt beim harmlosen Party-Spaß mit dem Vermischen von Gesichtern und Körpern prominenter Menschen oder Figuren mit eigenen Selfies und reicht bis hin zu einer Welle von künstlich generierten, immer extremeren Erotikbildern auf den einschlägigen Plattformen. Generative KI lässt sich für kreative, künstlerische Zwecke verwenden, für harmlose Spaßanwendungen bis hin zu massiven Eingriffen in die Persönlichkeitsrechte der Menschen. Und für kriminelle Zwecke. Aber sie kann auch insgesamt unsere ästhetische Kalibrierung manipulieren und damit gerade junge Menschen extrem unter Druck setzen. Immer mehr KI-Tools aus dem „Not Safe for Work“-Segment erzeugen Bilder mit Überstilisierung der Körperformen oder Deepfakes von Menschen, die plötzlich aussehen wie nach extremen Schönheitsoperationen.
Deepfake-Pornografie beschränkt sich nicht nur auf Manipulationen ohne Einwilligung der abgebildeten Personen. Auch professionelle Porno-Darstellerinnen und Darsteller sowie Social-Media-Stars nutzen die Generative KI zur immer einfacheren und automatisierten Herstellung von neuem Content, auch für Plattformen wie Onlyfans. Die Welle an immer neuem, immer automatisierter erzeugtem Content können die Plattform-Betreiber nicht mehr ernsthaft moderieren, falls sie es denn ernsthaft vorhatten. Noch fallen die generierten Bilder und Videos in vielen Ländern nicht unter bestehende Gesetze. Damit betriebener Betrug oder die bewusste Verletzung von Persönlichkeitsrechten aber sehr wohl. Und die Trainingsdaten der KI-Modelle stammen häufig auch aus einer urheberrechts-verletzenden Nutzung von Bildern und Videos.
Abgrenzung liegt zwischen Manipulation und Neuerzeugung
Die Grenzen der verschiedenen Anwendungsszenarien verschwimmen und auch die vermeintlich spaßige Party-App kann eigentlich zum Sammeln von Trainingsdaten für Deepfake-Tools dienen. Eine derzeit in den Ring geworfene Verwässerung des Urheberrechts, sozusagen als Anpassung an den rasanten technologischen Fortschritt, wäre ein Dammbruch und Offenbarungseid. Umgekehrt sollte im Zuge der KI-Regulierung das Urheberrecht gestärkt werden. Und an einer Kennzeichnungspflicht für KI-generierte Inhalte führt ernsthaft kein Weg vorbei. Solange Anbieter, nicht nur von „ClothOff“-Tools, nicht überprüfen können (und wollen), ob das Quellbild rechtskonform und mit Einwilligung genutzt wird -und natürlich ebenso wenig, ob die Nutzung der erzeugten KI-Deepfakes keine Rechte Dritter verletzen-, so lange würde eine Transparenzpflicht zumindest schon einmal die strafrechtliche Verfolgung von missbräuchlicher Nutzung Generativer KI vereinfachen.
Neben der ethischen ist auch die rechtliche Debatte deshalb wichtig, da die Nutzung der Künstlichen Intelligenz so viele Rechtsnormen tangiert, die angesichts der Deepfake-Technologie zur Grauzone werden. So beobachten Kriminalisten schon heute verstärkte Deepfake-Aktivitäten im Bereich der Kinder-Pornografie. Die Strafbarkeit steht hier nicht in Frage, sehr wohl aber die vollendeten Tatbestände und damit das Strafmaß. Es dreht sich auch hier um die rechtliche Bewertung von KI-Bildern. Wenn es dagegen um Identitätsdiebstahl, dem Recht am eigenen Bild oder Urheberrechte geht, wird es aber sehr viel schwieriger, denn es gilt zu beurteilen, ob der Deepfake unter traditionelle Gesetze gegen Fälschungen und Bildmanipulationen fällt oder völlig neue Inhalte erzeugt werden, die damit nicht notwendigerweise in diese Kategorien fallen. Außerdem verschwimmen oft die Grenzen zwischen Identitätsdiebstahl und künstlerischer Freiheit. Professionelle Deepfaker vermeiden daher Quellbilder, in denen Gesichter dominieren. Ihre KI-Bilder erzeugen dagegen neue, künstlich generierte Personen, die lediglich eine täuschende Ähnlichkeit haben. Die Abgrenzung liegt zwischen Manipulation und Neuerzeugung von Bildern. Dies schafft in der Praxis eine Unsicherheit, in dem Ermittler Schwierigkeiten haben, vorhandene Gesetze anzuwenden. Die Befürchtung: Während neue Gesetze und Verordnungen erarbeitet werden, haben wir es bereits mit einer neuen Generation von Deepfakes zu tun, die noch schwerer zu regulieren sein werden.
Eine erhöhte Sensibilität und das Wissen um Deepfakes ist wichtig
Missbrauch von Technologie gab es immer und selbstverständlich sind die vielen positiven und faszinierenden Einsatzgebiete der Künstlichen Intelligenz unbestritten. Die rapide Fortschritte in der KI-Technologie unterstreichen aber den dringenden Bedarf an klar definierten rechtlichen Rahmenbedingungen. Die Unsicherheit, die durch derzeitige Grauzone entsteht, kann sowohl für Einzelpersonen als auch für die Gesellschaft als Ganzes problematisch sein. Und eine erhöhte Sensibilität und das Wissen um die Deepfake-Technologie ist wichtig. Die spanischen Schülerinnen haben viel Unterstützung bekommen. Und die Öffentlichkeits-Offensive ihrer Eltern ist wertvoll. Sie haben aber auch erlebt, wie viele der Mitschülerinnen und Mitschüler im ersten Moment an die Echtheit der Bilder geglaubt haben. Als Täter wurden Klassenkameraden identifiziert. Der Bürgermeister warnte davor, die Verbreitung der Bilder als schlechten Scherz zu bagatellisieren.
Die in dem Fall verwendete KI-App für Smartphones wirbt ganz offen mit dem Slogan "Undress anybody, undress girls for free" und verlangt 10 Euro für 25 erzeugte Nacktbilder. Noch ist die Verbreitung für den Anbieter nicht illlegal. Die Täter, Mitschüler und weitere Mittäter, haben sich mutmaßlich verschiedener Delikte schuldig gemacht. Die Jugendstaatsanwaltschaft ermittelt. Juristen sind derzeit uneins in der Bewertung. Im jeden einzelnen Fall kommt es für den Umfang des Eingriffs in die Privatsphäre auf das konkrete Bild und für das Gesamtstrafmaß auch auf die konkrete Verbreitung an. Der Schock für die Opfer und der mögliche Folgeschaden durch ein unkontrolliertes Verbreitung der Bilder im Internet dürfte höher sein als die derzeitige Möglichkeit Deepfakes rechtlich zu ahnden. Insbesondere da die schneeballartige Weiterverbreitung oftmals durch eine Vielzahl Dritter erfolgt.
#ki #kuenstlicheintelligenz #ai #deepfakes #smartphoneapp #faelschungen #almendralejo #mobbing #erpressung #kitools #notsafeforwork #nsfw #legalegrauzone #alibidisclaimer. generativeki #ethischefragen #rechtlichefragen #clothoff #bildanalyse #segmentierung #datensatz #mustererkennung #generierung #verfeinerung #trainingsdaten #erotik #pornografie #vertrauen #beweiskraft #privatsphaere #belaestigung #manipulation #einflussnahme #einwilligung #rufschädigung #regulierung #fortschritt #investitionen #training #anwender #ueberstilisierung #koerperformen #schoenheitsoperationen #onlyfans #betreiber #moderation #gesetze #betrug #urheberrecht #neuerzeugung #kennzeichnungspflicht #strafbarkeit #tatbestaende #strafmass strafmaß #identitaetsdiebstahl #bildrechte #sensibilitaet #debatte