Das 1×1 der IT-Sicherheit: Mit welchen Technologien wir unsere Demokratie vor Deepfakes schützen wollen

Das 1x1 der IT-Sicherheit

„Democracy cannot succeed unless those who express their choice are prepared to choose wisely.“ Das Zitat stammt vom 32. Präsidenten der USA, Franklin D. Roosevelt. Es war sein Argument dafür, dass der Fortbestand der Demokratie insbesondere durch Bildung der Wähler*innen geschützt wird. Doch die Möglichkeit, eine informierte Wahlentscheidung zu treffen, hängt im digitalen Zeitalter von mehr ab. Etwa davon, ob Menschen den Informationen vertrauen können, die über unterschiedlichste Kanäle auf sie einprasseln. Welche Rolle Technologie beim Schutz der Demokratie spielt, erklären wir in dieser Folge des 1×1 der IT-Sicherheit. 

Wahlen sind zum Ziel von Desinformationskampagnen unterschiedlichster Akteure geworden. Eine von Microsoft geförderte Studie von Jacob Shapiro, Professor an der Princeton University, zählte zwischen 2013 und 2019 insgesamt 96 Versuche in 30 Ländern, Wahlen zu beeinflussen darunter auch Deutschland. Bei etwa 93 Prozent der Aktivitäten erstellten die Angreifer*innen eigene Inhalte etwa in sozialen Medien, in 86 Prozent der Fälle wurde bereits existierender Content verstärkt und in 74 Prozent der Beobachtungen wurden verifizierte Fakten verzerrt. 

Desinformation durch Deepfakes

Desinformation geschieht in vielen Formen. Doch eine zunehmende Gefahr entsteht durch die Verbreitung von Deepfake-Technologien. Dabei geht es um Bilder und Videos, die nicht echt sind, aber nur schwer als Fälschung identifiziert werden können. Im Wahlkampf bedeutet das: Wähler*innen können die Echtheit einer Information, beispielsweise aus vielfach in sozialen Netzwerken geteilten Videoschnipseln oder Bildern, nicht mehr einfach erkennen oder bewerten. Man erinnert sich vielleicht an gefälschte Videos von Barack Obama, Donald Trump oder Mark Zuckerberg, die ihrer Zeit für Schlagzeilen sorgten. In Gabun hatte der Streit um die Authentizität eines Videos sogar gravierende Auswirkungen auf die Stabilität des Landes. 

Die AI-gestützte Technologie ist mittlerweile so einfach zu verbreiten und zu bedienen, dass die Zahl vermeintlich realer Bilder und Videos exponentiell wächst. Die Algorithmen lernen permanent dazu, es ist nahezu unausweichlich, dass sie schon bald konventionelle Erkennungsmethoden überlisten – oder dies schon tun. 

Wie neue Tools Deepfakes erkennen

Wir von Microsoft haben deshalb an einer neuen Technologie gearbeitet, die hilft, gefälschte Inhalte zu identifizieren. Der Microsoft Video Authenticator analysiert Bilder sowie Videos und gibt eine prozentuale Wahrscheinlichkeit an, ob das Material bearbeitet wurde, den sogenannten Confidence Score. In einem Video analysiert das Tool jedes einzelne Bild des Films und gibt in Echtzeit für jedes Motiv die Manipulationswahrscheinlichkeit aus. Die Technologie erkennt etwa subtile Überblendungen oder Graustufenelemente, die für das menschliche Auge möglicherweise nicht wahrnehmbar sind. 

Microsoft Video Authenticator wurde auf Basis des Datensatzes FaceForensic++ entwickelt und trainiert und am DeepFake Detection Challenge Dataset getestet, zwei der führenden Modelle, um Technologien zur Erkennung von Deepfakes zu testen. Entwickelt wurde die Technologie von Microsoft Research in Koordination mit dem Responsible AI Team von Microsoft und dem Microsoft AI, Ethics and Effects in Engineering and Research (AETHER) Committee. Dieses Beratungsgremium von Microsoft trägt dazu bei, dass neue Technologien verantwortungsbewusst entwickelt und eingesetzt werden.  

Wo Software zur Deepfake-Erkennung schon heute eingesetzt wird

Microsoft unterstützt den Kampf gegen Deepfakes mit dem Microsoft Video Authenticator ab sofort durch zwei Partnerschaften. Die AI Foundation, ein sowohl kommerzielles als auch gemeinnütziges Unternehmen, macht die Microsoft-Technologie mit der Reality Defender 2020-Initiative (RD 2020) für Organisationen im politischen Prozess verfügbar, etwa für Medien und politische Akteure. RD 2020 begleitet den Einsatz des Microsoft Video Authenticators, um den verantwortungsbewussten Einsatz des Tools sicherzustellen. Im Projekt Origin hat sich Microsoft mit großen Medien-Unternehmen wie der BBC, CBC/Radio Canada sowie der New York Times zusammengeschlossen. Dort wird der Video Authenticator genutzt und weiterentwickelt, genauso wie bei Verlagen und Social-Media-Unternehmen in der Trusted-News-Initiative. 

Doch Franklin D. Roosevelts Argument hat auch im Zeitalter der Deepfakes noch viel Bedeutung. Bildung, insbesondere im Umgang mit Medien, verringert das Risiko, schlecht manipulierten Bildern und Videos fälschlicherweise zu trauen. Wissen und Übung helfen, Fälschungen zu erkennen. Wer seine Kenntnisse und Fähigkeiten in der Deepfake-Erkennung testen will, dem empfehlen wir dieses Microsoft-Quiz in englischer Sprache.  

Weitere Beiträge der Serie

Alle Beiträge unserer Reihe „Das 1×1 der IT-Sicherheit“ gibt es hier. 


Ein Beitrag von Stratos Komotoglou
Senior Subsidiary Product Marketing Manager Microsoft 365 Security bei Microsoft Deutschland
@HerrStratosProfilbild Stratos Komotoglou

Tags: , ,

Weitere Infos zu diesem Thema

20. August 2020
Mehr Budget, größere Teams: Wie die COVID-19-Pandemie die digitale Transformation in der Cybersicherheit beschleunigt

Zahlreiche Unternehmen haben als Reaktion auf die COVID-19-Pandemie ihre Budgets für IT-Sicherheit erhöht und auch ihre IT-Teams vergrößert. Das ist das Ergebnis einer aktuellen, internationalen Umfrage von Microsoft unter knapp 800 Führungskräften aus Unternehmen mit mehr als 500 Beschäftigten in Deutschland, Indien, Großbritannien und in den USA.