Die Identifizierung von Deep Fakes in polizeilichen Ermittlungen war bisher eine komplexe Herausforderung. Deep Fakes, also künstlich erzeugte Medieninhalte, können in Form von gefälschten Videos, Fotos oder Audiodateien erstellt werden. Diese Technologie birgt ernsthafte Gefahren, da sie die Manipulation von Informationen auf ein bisher nicht gekanntes Niveau hebt.
Deep Fakes können dazu verwendet werden, das Gesicht einer Person in Videos oder Bildern zu manipulieren, um falsche Identitäten zu erstellen. Diese falschen Identitäten können dann wiederum für systematischen Betrug oder aber die Erpressung von Einzelpersonen oder Organisationen verwendet werden.
Eine weitere signifikante Gefahr von Deep Fakes ist die gezielte Beeinflussung demokratischer Prozesse und der öffentlichen Meinungsbildungsbildung im Rahmen von hybriden Angriffen in einem bisher nicht gekannten Ausmaß. Dies kann zum Beispiel durch die Verbreitung von Falschinformationen geschehen.
Angesichts des Schadenspotenzials von Deep Fakes ist es das Ziel von Ermittlungsbehörden aber auch von demokratischen Institutionen kompromittierte Informationen und audiovisuelle Inhalte analysieren und erkennen zu können. KI kann die Analyse großer Mengen an Informationen und die Erkennung von Deep Fakes wesentlich erleichtern.