Deep Fakes aufspüren und enttarnen​


So lief es bisher

Komplexe und zeitintensive Analysen

Die Identifizierung von Deep Fakes in polizeilichen Ermittlungen war bisher eine komplexe Herausforderung. Deep Fakes, also künstlich erzeugte Medieninhalte, können in Form von gefälschten Videos, Fotos oder Audiodateien erstellt werden. Diese Technologie birgt ernsthafte Gefahren, da sie die Manipulation von Informationen auf ein bisher nicht gekanntes Niveau hebt.

Deep Fakes können dazu verwendet werden, das Gesicht einer Person in Videos oder Bildern zu manipulieren, um falsche Identitäten zu erstellen. Diese falschen Identitäten können dann wiederum für systematischen Betrug oder aber die Erpressung von Einzelpersonen oder Organisationen verwendet werden.

Eine weitere signifikante Gefahr von Deep Fakes ist die gezielte Beeinflussung demokratischer Prozesse und der öffentlichen Meinungsbildungsbildung im Rahmen von hybriden Angriffen in einem bisher nicht gekannten Ausmaß. Dies kann zum Beispiel durch die Verbreitung von Falschinformationen geschehen.

Angesichts des Schadenspotenzials von Deep Fakes ist es das Ziel von Ermittlungsbehörden aber auch von demokratischen Institutionen kompromittierte Informationen und audiovisuelle Inhalte analysieren und erkennen zu können. KI kann die Analyse großer Mengen an Informationen und die Erkennung von Deep Fakes wesentlich erleichtern.

Die Rolle der KI

KI spielt eine entscheidende Rolle bei der automatisierten Identifizierung von Deep Fakes. Durch den Einsatz fortschrittlicher Bild- und Videoanalysealgorithmen können KI-Anwendungen Anomalien, Artefakte und Muster erkennen, die auf Manipulationen hinweisen.

Hierfür untersucht die eingesetzte KI zudem folgende weitere Punkte:

  • Die KI analysiert detailliert Gesichtsmerkmale, Mimik und andere physiologische Eigenschaften auf den aufgezeichneten Medien. Anomalien in der Mimik oder ungewöhnliche Bewegungsmuster können auf eine mögliche Manipulation hinweisen und werden entsprechend markiert.

  • Die KI sucht nach digitalen Artefakten oder Unregelmäßigkeiten im Bild- oder Videomaterial, die auf eine nachträgliche Bearbeitung durch Deep-Learning-Algorithmen hindeuten könnten. Dies betrifft beispielsweise die Übergangsbereiche zwischen manipulierten und originalen Bildbereichen in Form von unscharfen Kanten oder bei Audioaufzeichnungen ungewöhnliche Tonhöhenänderungen.

  • Die KI wird mit Deep-Learning-Modellen trainiert, die auf großen Datensätzen realer und bekannter Deep Fakes basieren. Das Modell lernt, Muster und Merkmale zu erkennen, die typisch für künstlich generierte Medien sind.

  • Die KI berücksichtigt den Kontext, in dem das Material erscheint. Enthält ein Video beispielsweise plötzliche und unrealistische Szenen, kann dies auf eine mögliche Manipulation hindeuten.

Die KI wird kontinuierlich mit neuen Daten trainiert, um sich an die sich entwickelnden Technologien der Deep-Fake-Erstellung anzupassen. Dies erfordert eine ständige Aktualisierung der Trainingsdaten und eine Zusammenarbeit mit Experten, um die Erkennungsgenauigkeit zu verbessern.


So läuft es heute

Präzise Analyse von Medieninhalten in Echtzeit

KI ermöglicht eine präzise Analyse von Medieninhalten, indem sie subtile Anomalien erkennt, die für das menschliche Auge schwer wahrnehmbar sind. Dadurch können auch ausgefeilte Deep Fakes zuverlässig identifiziert werden. KI zur Erkennung von Deep Fakes sollte in Zukunft standardmäßig bei den Polizeibehörden eingesetzt werden. Eine zentrale Stelle auf Bundesebene könnte dann das kontinuierliche Training der KI mit bekannten Deep Fakes, bekannten Artefakten und Anomalien sowie Weltwissen in Zusammenarbeit mit KI-Expertinnen und Experten übernehmen.

Die so trainierte KI ermöglicht eine schnelle und effiziente Identifizierung von Deep Fakes in Echtzeit. Dies gibt den Ermittlerinnen und Ermittlern die Möglichkeit, zeitnah auf mögliche Manipulationen zu reagieren und präventive Maßnahmen zu ergreifen. Anhand einer Risikoklassifizierung entscheiden die Ermittler welche Schritte einzuleiten sind.

Beziehen sich Deep Fakes auf Einzelpersonen und Straftaten, beispielsweise im Rahmen einer Erpressung, werden im Rahmen der Polizeiarbeit forensische Beweise gesichert. Handelt es sich um Deep Fakes, die darauf abzielen, demokratische Prozesse zu untergraben oder orchestriert Einfluss auf Wahlen zu nehmen, werden weitere Behörden eingebunden und ein genaues Lagebild erstellt, um Gegenmaßnahmen einleiten zu können. Die präventive Identifizierung von Deep Fakes trägt in Zusammenarbeit mit sozialen Netzwerken dazu bei, die Verbreitung von Desinformation und Fake News zu minimieren.

Darüber hinaus wird durch den Einsatz von KI auch die Verwertbarkeit digitaler Medien als Beweismittel gestärkt. Durch die Gewährleistung der Authentizität von Bild- und Videomaterial können die Ermittler sicherstellen, dass vor Gericht präsentierte Beweise zuverlässig und unverfälscht sind.

Auf diese Weise trägt eine polizeiliche „Deep-Fake-KI“ dazu bei, dem breiten Spektrum an Risiken und Schäden, die durch Deep Fakes entstehen können, gezielt entgegenzuwirken.


Sie haben Fragen?

Keine Webseite und keine Broschüre kann das persönliche Gespräch über Ihre Ziele und Ihre Themen ersetzen. Wir freuen uns auf einen Termin bei Ihnen vor Ort.


Verwaltung digital erleben


Als starker Partner evaluieren wir gemeinsam mit Ihnen die Chancen der digitalen Transformation und sorgen mit dem gezielten Einsatz moderner IT für die Optimierung Ihrer Kerngeschäftsprozesse und Fachverfahren. Profitieren Sie von unserem Branchen-Know-how sowie von unserer weitgreifenden fachlichen, technischen und methodischen Expertise aus einer Vielzahl von Veränderungsprojekten.

Diese Seite speichern. Diese Seite entfernen.