Deepfakes und der Kampf um die Wahrheit im Netz
Wer sich in sozialen Netzwerken bewegt oder Messengerdienste verwendet, ist ihnen mit hoher Wahrscheinlichkeit bereits begegnet: Deepfakes. Gut ist, wenn man sie als solche erkennt und ihrem Inhalt keinen Glauben schenkt. Doch häufig ist das nicht der Fall – und genau das ist auch so gewollt. Täglich geistern zahlreiche Deepfakes durch das Netz. Sie werden meist über soziale Netzwerke oder Messengerdienste zügig verbreitet oder auf Webseiten zum Abruf hochgeladen. Hierbei können sie unter Umständen eine besondere Form der digitalen Gewalt für die betroffenen Personen darstellen.
Was sind Deepfakes?
Unter Deepfakes versteht man Bild-, Video- und Audiodateien, welche meist unter Einsatz von KI-Software erstellt oder manipuliert werden. Betroffene werden hierdurch meist täuschend echt in einen völlig falschen Kontext gesetzt. Häufig ist nur bei genauer Betrachtung zu erkennen, dass es sich nicht um eine echte Veröffentlichung handelt. Die Dienste, die hierfür zum Einsatz kommen, werden Tag für Tag besser und ausgefeilter. Insbesondere Personen, welche in der Öffentlichkeit stehen (z.B. Politiker, Schauspieler, Sportler) haben mit Deepfake-Veröffentlichungen zu kämpfen. Gerade in Wahlkampfzeiten sind sie ein beliebtes Mittel, um die öffentliche Meinung zu beeinflussen und in eine bestimmte Richtung zu steuern. Jedoch können solche Manipulationen heutzutage nahezu jeden treffen – mit teils verheerenden Folgen.
Natürlich ist das Bearbeiten und Fälschen im digitalen Zeitalter kein neues Phänomen – entsprechende Veröffentlichungen im Netz sind so alt wie das Internet selbst. Allerdings waren hierfür bis vor ein paar Jahren noch besondere Fähigkeiten notwendig, um das bearbeitete Bild oder Video nicht sofort als solches zu erkennen. Nun gibt es zahlreiche KI-Programme und Apps mit denen so ziemlich jeder in wenigen Augenblicken eine entsprechende Datei erstellen kann. Fälschen lassen sich so ohne Weiteres Bilder, Videos und Stimmen.
„Face Swap“
Deepfakes tauchen heutzutage somit in verschiedenen Gestaltungsformen auf: Es kursieren gefälschte Bilder und Videos, bei welchen Gesichter auf andere Körper gesetzt werden (z.B. „Face Swap“). Dies kann womöglich witzig gemeint sein, weil eine Person in eine bekannte Filmszene eingefügt wird und so quasi die Rolle eines Protagonisten übernimmt – was für fast jeden Betrachter noch leicht als Montage erkennbar sein dürfte. Jedoch gibt es auch viele Fälle, die schwer ehrverletzend sowie rufschädigend sind und möglicherweise auch gesundheitliche Folgen mit sich bringen, zum Beispiel wenn das Gesicht einer Person in Videos mit pornografischem, politischem oder gewaltverherrlichendem Inhalt geschnitten wird. Aufgrund der authentischen Ausgestaltung könnten Betrachter annehmen, dass die hereinmontierte Person in dem Streifen wirklich mitgewirkt hat.
Nachahmung von Gesichtszügen
Bekannt ist auch das sog. „Face Reenactment“. Hierbei wird eine echte Vorlage so manipuliert, dass sie einen anderen Aussagegehalt hat. Es werden also die Gesichtszüge (z.B. Mimik, Bewegungen) und – bei einem Video – möglicherweise auch die Tonspur manipuliert. So werden mit dem Bild oder Video Aussagen verbreitet, welche von der gezeigten Person nie getroffen wurden. Bekannte Beispiel hierfür gibt es bereits zahlreiche: Zu den bekanntesten „Face Reenactment“-Videos gehören welche von Ex-US-Präsident Barack Obama, US-Vizepräsidenten Kamala Harris oder Bundeskanzler Olaf Scholz, die im Netz kursierten. Auch nach dem Anschlagsversuch auf Donald Trump im Juli 2024 wurde ein falsches Bild im Internet verbreitet: Es zeigt den ehemaligen US-Präsidenten in seiner mittlerweile bekannten Faust-Hoch-Pose kurz nach den Schüssen auf ihn. Hierbei wird er von vermeintlich lächelnden Secret-Service-Mitarbeitern abgeschirmt. Auf dem Originalfoto lächeln die Beamten jedoch keineswegs.
Manipulation von Stimmen
Ebenfalls als Deepfakes tauchen manipulierte Stimmen auf (z.B. „Text-to-Speech“). Hierbei handelt es sich um Audiosequenzen, welche täuschend echt nach der Originalperson klingen. Im US-Wahlkampf sorgten vermeintliche Anrufe von US-Präsident Joe Biden bei potentiellen Wählern in New Hampshire für Aufregung. Die Stimme empfahl den Angerufenen bei den Anfang 2024 stattfindenden Vorwahlen nicht anzutreten. In Wirklichkeit handelte es sich hierbei um sog. Robocalls, also automatisierte Anrufe, welche mittels Künstlicher Intelligenz die Stimme und auch den Sprachduktus von Joe Biden imitierten. Der 46. Präsident der Vereinigten Staaten hatte damit allerdings nichts zu tun.
Rechtliche Möglichkeiten
Deepfakes sind also meist kein Spaß. Sie können Personen kränken, sie diskriminieren oder sogar ihr Privat- und Berufsleben zerstören. Auch tragen bestimmte Veröffentlichungen zu gesellschaftlichen Unsicherheiten, Fake News und Hetze bei. Zudem werden Deepfakes für Betrugsfälle eingesetzt, z.B. für Phishing-Angriffe oder den sogenannten Enkeltrick.
Deepfakes sind in der Regel unzulässig, sofern die betroffene Person in die Erstellung und Veröffentlichung nicht eingewilligt hat. Einige Beiträge können – je nach Ausgestaltung – strafrechtlich verfolgt werden. Die Betroffenen haben jedoch grundsätzlich zivilrechtliche Ansprüche, denn Deepfakes stellen in der Regel einen rechtswidrigen Eingriff in das allgemeine Persönlichkeitsrecht oder das Namensrecht dar. Auch können sie Urheber- oder Markenrechte verletzen. Denkbar sind somit Unterlassungs-, Geldentschädigungs- und Schadensersatzansprüche.
Auch Personen des öffentlichen Lebens, Organe und Unternehmen stehen selbstverständlich nicht schutzlos dar. Ein bekanntes Beispiel ist ein Verfahren, welches die Bundesregierung Anfang des Jahres 2024 geführt hat. Im Februar erwirkte sie beim Landgericht Berlin II eine einstweilige Verfügung gegen Deepfake-Videoveröffentlichungen, welche Bundeskanzler Olaf Scholz bei einer „Rede an die Nation“ zeigen sollte (LG Berlin II, Beschluss vom 13. Februar 2024 – 15 O 579/23). Zu sehen war scheinbar ein echtes Video des Kanzlers, jedoch mit geänderter Stimme. Das Video wurde mit KI manipuliert. Das Gericht nahm einen Unterlassungsanspruch aus dem Namensrecht (§§ 12, 1004 BGB) an, da die Gefahr einer Zuordnungsverwirrung bestehe. Durch die Veröffentlichung werde der Eindruck erweckt, dass eine echte Rede des Bundeskanzlers gezeigt werde. Die Kammer führt dazu aus: „Die Stimme und der Sprachduktus des Bundeskanzlers wurde dabei in geradezu erschreckender Qualität nachgeahmt“. Dass sich die Lippen des Kanzlers im Video nicht synchron zum gesprochenen Text bewegten, würde nur auffallen, wenn man darauf genau achte. Die Ersteller des Videos können sich, so die Ansicht des Gerichts, auch nicht auf die Meinungs- oder Kunstfreiheit (z.B. durch Satire) berufen. Es ist diesseits nicht bekannt, ob die Entscheidung mittlerweile rechtskräftig ist.
Das Thema Deepfakes dürfte die Gerichte in naher Zukunft sicherlich noch häufiger befassen.
Das könnte Sie auch interessieren
Das Leben in den sozialen Netzwerken
Was tun gegen Fake-Accounts in den sozialen Netzwerken?
Kampf gegen Hass im Netz: Kommt das Gesetz gegen digitale Gewalt?