Prisma

Mit KI gegen Deepfakes

Algorithmus erkennt gefälschte Videos

Foto: metamorworks/AdobeStock

jr | Wir Menschen können schnell und zuversichtlich Gesichter erkennen. Sei es ein bekannter Schauspieler, eine Politikerin oder Familienmitglieder – der Mensch erfasst schnell, mit wem er es zu tun hat. Durch eine Technologie der künstlichen Intelligenz, sogenannte Deepfakes, ändert sich das: Diese Algorithmen erstellen eine digitale „Marionette“ einer Person, der dann in einem Video Worte in den Mund gelegt werden können. Im März 2022 kursierte ein Deepfake des ukrainischen Präsidenten Wolodymyr Selenskyj, auf dem er die Kapitulation verkündete. Selenskyj hat diese Worte aber nie gesagt. Der Präsident im Video war eine technisch erstellte, digitale „Puppe“, die Aussehen, Gestik und Mimik nachahmte. Obwohl die Täuschung in diesem Fall offensichtlich war, verbreitete sich das Fake-Video in sozialen Netzwerken. Meistens erkennen Menschen gefälschte Videos, da die Deepfakes technisch noch nicht perfekt ausgereift sind. Doch die Täuschungen werden immer besser. Wie können gefälschte Aufnahmen in Zukunft entlarvt werden? Ein Forscherduo hat nun einen Algorithmus entwickelt, der es mit den Deepfakes aufnehmen soll. Durch biometrische Daten der Gesichts- und Körper­bewegungen, aber auch stimmliche und sprachliche Merkmale sollen gefälschte Videos detektiert werden. In einem Versuch mit Filmmaterial von Wolodymyr Selenskyj erkannte die Software mit 99,99% Treffsicherheit vier Deepfakes und 250 Vergleichspersonen. Anhand von 13 Stunden Videomaterial identifizierte die Software 780 Merkmale, die zur Erkennung des echten Selenskyi herangezogen wurden. Mit Personen des öffentlichen Lebens, wie Politikern, sollte eine derartige Merkmalsprüfung durchgeführt werden, damit gefälschte Videos in Zukunft schnell erkannt werden können, so die Autoren. |


Literatur
Bohacek M, Farid H. Protecting world leaders against deep fakes using facial, gestural, and vocal mannerisms. PNAS, 2022, doi: 10.1073/pnas.2216035119

 

0 Kommentare

Das Kommentieren ist aktuell nicht möglich.