Deepfakes sind täuschend echt wirkende, manipulierte Bild-, Video- oder Audioaufnahmen, die mit Hilfe von künstlicher Intelligenz generiert werden. Mit der passenden Software lassen sich leicht Stimmen oder Gesichter in Echtzeit tauschen. Deepfakes stellen damit eine signifikante Eskalation im Bereich der Internetkriminalität dar und werfen spannende sicherheitstechnische und rechtliche Fragen auf.

Wer haftet, wenn bspw. auf Facebook ein Video von Elon Musk auftaucht, welcher angeblich eine Verdoppelung für überwiesene Kryptos verspricht? Und welche Rechte haben geschädigte Opfer, deren biometrische Gesichtsdaten missbraucht wurden? Wie sieht es mit der Arbeitnehmerhaftung aus, wenn der Arbeitnehmer auf einen angeblichen Anruf des CEOs reingefallen ist?

Der Umfang der Haftung des Arbeitnehmers bestimmt sich nach dem Grad der Fahrlässigkeit. Das BAG hat bei normaler bzw. mittlerer und grober Fahrlässigkeit eine Aufteilung der Haftung zwischen Arbeitnehmer und Arbeitgeber nach bestimmten Haftungsquoten eingeführt. Für eine vollständige Bewertung der Fahrlässigkeit, spielt die Qualität des Deepfakes aber auch präventive Maßnahmen des Arbeitgebers eine entscheidende Rolle. Einem nicht geschulten Arbeitnehmer, welcher auf ein täuschend echtes Deepfake hereinfällt, wird ein geringerer Vorwurf zu machen sein.

Ein wesentlicher Aspekt ist, ob das Unternehmen oder im Falle von Facebook die Plattform technische Maßnahmen ergriffen hat, um Deepfakes vorzubeugen. So kann eine Deepfake-Detektionssoftware eingesetzt werden, die darauf spezialisiert ist, Manipulationen in audiovisuellen Materialien zu identifizieren, um gefälschte Inhalte proaktiv zu erkennen und zu blockieren. Derartige Tools sind bereits auf dem Markt etabliert. Hier stellt sich daher auch die Frage der Haftung nach der DSGVO, denn so kann der Vorwurf erhoben werden, dass durch unzureichende technische Maßnahmen der Schaden eingetreten ist, was einen Anspruch gem. Art. 82 DSGVO begründen kann.

Personen, deren biometrische Gesichtsdaten missbraucht worden sind, können ebenso auf den Schutz durch die DSGVO bauen. Denn es handelt sich um eine Verarbeitung personenbezogener Daten. Im Falle von verunglimpfendem Material, insbesondere sog. Rachepornos, kommen auch hohe Schmerzensgelder in Betracht. Daneben hat die betroffene Person Unterlassungsansprüche, dass das Material gelöscht und die Verbreitung unterbunden wird. Zudem kann der Deepfake bei den Datenschutzbehörden angezeigt werden.

Gegen die Täter selbst sollte eine Strafanzeige bei einem Fachdezernat für Cybercrime erhoben werden.

Die Kanzlei CLLB welche auf eine langjährige Erfahrung im Bereich des Datenschutzes und der Bekämpfung von Cyberkriminalität zurückblicken kann, steht Opfern von Deepfakes mit Rat und Tat zur Seite.

Firmenkontakt und Herausgeber der Meldung:

CLLB Rechtsanwälte Cocron, Liebl, Leitz, Braun, Kainz Partnerschaft mbB
Liebigstraße 21
80538 München
Telefon: +49 (89) 552999-50
Telefax: +49 (89) 552999-90
http://www.cllb.de

Ansprechpartner:
Dr. Henning Leitz
CLLB Rechtsanwälte
Telefon: +49 (89) 552999-50
Fax: +49 (89) 552999-90
E-Mail: Leitz@cllb.de
Für die oben stehende Story ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel