Porno-Deepfakes: Dieses Problem ist gar nicht so neu

   | 
Lesezeit  1 Min
audio Anhören
Erfolgreich kopiert!

Die meisten Deepfakes im Internet sind pornografisch. Das Phänomen gibt es schon länger, als vielen bewusst ist. Es wird Zeit, dass die Bundesregierung sich endlich darum kümmert.

Von Rebekka Wiese

Externer Inhalt

Dieser externe Inhalt wird von einem Drittanbieter bereit gestellt. Aufgrund einer möglichen Datenübermittlung wird dieser Inhalt nicht dargestellt. Mehr Informationen finden Sie hierzu in der Datenschutzerklärung.

Sie sehen täuschend echt aus. Aber sie sind es nicht. Das kennzeichnet sogenannte Deepfakes, also gefälschte Videos und Bilder, die mit Künstlicher Intelligenz erstellt wurden. Studien zeigen: Die allermeisten Deepfakes, die im Internet kursieren, sind pornografische Inhalte. Fast immer zeigen sie Frauen. Oder auch Kinder.

Deepfakes im Internet: KI-generierte Fälschungen wirken täuschend echt und verbreiten sich rasant

Durch Künstliche Intelligenz ist es leicht wie nie geworden, solche falschen Aufnahmen zu erstellen. Dieser Realität ist die aktuelle Gesetzeslage offenbar nicht gewachsen. Nach vielen Ankündigungen ist es nun Zeit, dass die Bundesregierung ins Handeln kommt. Und auch die EU muss endlich liefern.

Deepfakes haben sich seit Jahren rasant verbreitet und zeigen meist Frauen oder Kinder in pornografischen Inhalten.
Deepfakes haben sich seit Jahren rasant verbreitet und zeigen meist Frauen oder Kinder in pornografischen Inhalten.  Foto: Marcus Brandt

Daran erinnert nun ein weiteres Mal der Fall der Schauspielerin Collien Fernandes, die schwere Vorwürfe gegen ihren Ex-Mann Christian Ulmen erhoben hat. Dass Fernandes Opfer von Deepfakes geworden ist, war schon vor der aktuellen Berichterstattung bekannt. Seit 2024 engagierte sie sich dafür, endlich eine strafrechtliche Lösung für das Problem zu finden. Die Bundesregierung versprach zwar immer wieder, sich darum zu kümmern. Aber es passierte wenig.

Deepfakes sind kein neues Phänomen: Erste Fälle und Apps existieren bereits seit dem Jahr 2017

Dabei ist das Phänomen nicht mal so neu, wie manche glauben. Schon 2017 tauchten erste sexualisierte Deepfake-Videos auf, bald entstanden erste Apps für genau solche Zwecke. Das ist bald zehn Jahre her.

Das Strafrecht hat seitdem nicht reagiert. Auch die EU tut sich schwer damit. Beinahe hätte sie bei der Überarbeitung der KI-Verordnung eine eher lasche Regelung zu Deepfakes durchgewunken, die erst spät nachgeschärft wurde.

All das zeigt: Die Dringlichkeit des Problems wurde zu lange verkannt. Auch die Gesetzgebung muss endlich in der neuen Zeit ankommen.

Nach oben  Nach oben