Deepfake nennt man eine Technik, bei der per Mausklick virtuelle Aufnahmen von Gesichtern auf virtuelle Abbilder fremder Körper gesetzt werden können. Das funktioniert mit Fotos und Videos. Es ist lustig, wenn man sich auf diese Weise virtuell in Harry Potter oder Lara Croft verwandeln kann. Man kann die Technik aber auch missbrauchen.
"Deep-Fake" ist eine Technik mit großem Missbrauchspotential
Es gibt im Netz Angebote, die es möglich machen, Fotos von Köpfen gegen den Willen von Personen auf den nackten virtuellen Körper eines Pornodarstellers zu setzen. Das ist nicht nur abscheulich sondern ethisch und rechtlich indiskutabel. Das Austauschen von Gesichtern, sogenanntes "face swapping", ist nur eine Möglichkeit.
Man kann über Deepfakes auch Stimmen verändern ("voice swapping") und sogar Körperbewegungen übertragen ("body-puppetry"). Dass die Technik, deren Anbieter man nicht benennen sollte, um ihre Verbreitung nicht zu fördern, dazu geeignet ist, massive Persönlichkeitsverletzungen bis hin zur Strafbarkeit zu begehen, steht außer Frage.
Videos können kaum aus dem Netz entfernt werden
Wer gegen seinen Willen in einen pornografischen Kontext gesetzt wird, ist über die Mechanismen der schnellen Weiterverbreitung im Netz schnell Gespött ausgesetzt. Die Technik kann für sog. "Rachepornos" eingesetzt werden und massive psychische und berufliche Schäden nach sich ziehen.
Ist ein Video im Netz, kann man es kaum mehr wirksam entfernen. Wer es gesehen hat, wird Schwierigkeiten haben, durch die Suggestivkraft des Videos das Gesicht der abgebildeten Person aus dem Kontext zu lösen.
Unternehmerische Verantwortung ist gefragt
Besonders problematisch ist an diesen Anwendungen, dass sich betroffene Personen kaum dagegen schützen können. Schließlich sind Fotos von vielen Menschen im Netz - in sozialen Netzwerken oder in Statusmeldungen oder Profilbildern der Messengerdienste. Deshalb sind Anbieter aufgerufen, Anwendungen, deren Missbrauchspotential nicht beherrschbar ist, nicht anzubieten.
Dort wo das Angebot noch verantwortbar ist, müssen technische Mechanismen geschaffen werden, mit denen die Ersteller der verletzenden Inhalte identifiziert werden können. Und: Der Staat muss das Phänomen in den Blickwinkel des Strafrechts nehmen.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.