Täuschung mittels KI: Neue Betrugsmaschen und Gegenmaßnahmen

Microsoft arbeitet kontinuierlich daran, seine Plattformen und Kund*innen besser vor Missbrauch und Betrug zu schützen. Vom Blockieren betrügerischer Aktivitäten auf Azure und der Integration von Schutzmaßnahmen gegen Betrug in Edge bis hin zum Kampf gegen Tech-Support-Betrug durch neue Funktionen in Windows Quick Assist – diese Ausgabe der Cyber Signals bietet weitreichende Einblicke in diese Maßnahmen und stellt bisher erreichte Meilensteine zum Schutz der Kund*innen vor. 

Der folgende Beitrag ist eine Übersetzung des Microsoft Security Blog-Artikels, den Sie hier im Original lesen können: Cyber Signals Issue 9 | AI-powered deception: Emerging fraud threats and countermeasures | Microsoft Security Blog.

Wir verteidigen alle gemeinsam. 

Zwischen April 2024 und April 2025 hat Microsoft: 

  • Betrugsversuche im Wert von 4 Mrd. US-Dollar vereitelt 
  • 49.000 betrügerische Partneranmeldungen abgelehnt 
  • etwa 1,6 Mio. Bot-Anmeldeversuche pro Stunde blockiert 

Die Evolution des KI-unterstützten Internetbetrugs 

Künstliche Intelligenz (KI) macht es Cyberkriminellen immer leichter, ihre eigenen „Produktivitätstools“ zu entwickeln. Sie ermöglicht es, täuschend echt wirkende Inhalte für Angriffe in immer schneller werdendem Tempo zu erstellen. Dabei kommen sowohl legitime Apps , die für böswillige Zwecke missbraucht werden, als auch speziell entwickelte Tools, die in der Cybercrime-Unterwelt kursieren, zum Einsatz. 

KI-Tools durchsuchen gezielt das Internet nach Unternehmensinformationen und werten diese aus, wodurch Angreifende detaillierte Profile von Mitarbeitenden oder anderen Zielpersonen erstellen können. Diese Informationen bilden die Basis für raffinierte Social-Engineering-Angriffe. In einigen Fällen locken Täter*innen ihre Opfer in zunehmend komplexe Betrugsmaschen, etwa durch gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops. Betrüger*innen erstellen dafür komplette Webseiten und E-Commerce-Marken, einschließlich erfundener Unternehmensgeschichten und Kundenrezensionen. Mithilfe von Deepfakes, Stimmklonen, Phishing-E-Mails und täuschend echt aussehenden Fake-Webseiten geben sich Angreifende im großen Stil als seriöse Anbieter aus. 

KI-gestützte Betrugsangriffe finden laut dem Microsoft Anti-Fraud-Team weltweit statt, wobei ein großer Teil der Aktivitäten in China und Europa registriert wird – insbesondere in Deutschland. Ein Grund dafür: Deutschland zählt zu den größten Märkten für E-Commerce und Online-Dienste innerhalb der Europäischen Union. Je größer der digitale Markt in einer Region ist, desto höher ist auch das Risiko für Betrugsversuche. 

Betrug im Online-Handel 

Täuschend echt wirkende E-Commerce-Websites lassen sich heute mithilfe von KI und anderen Tools innerhalb von Minuten erstellen – und erfordern nur minimale technische Kenntnisse. Was früher Tage oder sogar Wochen dauerte, gelingt Angreifenden inzwischen im Handumdrehen. Die gefälschten Seiten sehen oft seriösen Anbietern sehr ähnlich, was es für Verbraucher*innen schwierig macht, sie als Fälschungen zu erkennen. 

KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen sorgen dafür, dass Kund*innen glauben, bei einem echten Händler einzukaufen. Kriminelle nutzen gezielt das Vertrauen in bekannte Marken aus. 

KI-gesteuerte Chatbots im Kundenservice eröffnen Betrüger*innen eine weitere Möglichkeit, täuschend echt aufzutreten. Diese Bots können Betroffene gezielt hinhalten, etwa bei Rückbuchungen, und mit vorgeschobenen Ausreden den Eindruck eines seriösen Anbieters erwecken – obwohl dahinter eine betrügerische Webseite steht.  

Microsoft setzt auf einen ganzheitlichen Ansatz, um Kund*innen mit robusten Schutzmechanismen, die direkt in Produkte und Dienste integriert sind, vor KI-gesteuertem Betrug zu schützen: . So bietet der Microsoft Defender for Cloud umfassenden Bedrohungsschutz für Azure-Ressourcen, inklusive Schwachstellenanalysen über Bedrohungserkennung bis hin zum Schutz virtueller Maschinen, Container-Images und Endpunkten. 

Microsoft Edge schützt Nutzer*innen aktiv vor betrügerischen Webseiten – etwa durch eine Tippfehlererkennung bei Webadressen und eine Domain-Imitations-Erkennung auf Basis von Deep-Learning-Technologie. Zusätzlich kommt der integrierte Schutz im Scareware Blocker in Edge zum Einsatz. Er basiert auf maschinellem Lernen und erkennt und blockiert potenzielle Betrugsseiten und irreführende Pop-up-Fenster mit alarmierenden Warnungen, die vortäuschen, der Computer sei kompromittiert. Ziel solcher Angriffe ist es, Angst zu schüren und Betroffene dazu zu bringen, betrügerische Supportnummern anzurufen oder gefährliche Software herunterzuladen. 

Betrug mit Job- und Stellenangeboten
Durch den rasanten Fortschritt generativer KI ist es für Betrüger*innen deutlich einfacher geworden, gefälschte Job-Inserate zu erstellen. Sie nutzen gestohlene Daten für falsche Profile, veröffentlichen automatisch generierte Stellenanzeigen und starten KI-gesteuerte E-Mail-Kampagnen, um Jobsuchende per Phishing zu täuschen. Selbst Vorstellungsgespräche und Rückmeldungen werden inzwischen per KI simuliert. Das macht es für Bewerber*innen schwieriger, echte Angebote von Betrug zu unterscheiden.  

Um solche Betrugsversuche einzudämmen, sollten Jobplattformen die Multifaktor-Authentifizierung (MFA) für Arbeitgeberkonten verpflichtend machen. So lässt sich verhindern, dass legitime Inserate von Dritten „gekapert“ werden. Zusätzlich sollten verfügbare Technologien zur Betrugserkennung eingesetzt werden, um verdächtige Inhalte frühzeitig zu identifizieren. 

Betrüger*innen verlangen häufig persönliche Daten wie Lebensläufe oder sogar Bankverbindungen – angeblich zur Verifizierung der Bewerbung. Ein weiteres Warnsignal sind unerwartete SMS oder E-Mails, die lukrative Jobangebote für minimale Qualifikationen versprechen. 

Auch Stellenanzeigen, bei denen Zahlungen eingefordert werden, die „zu gut klingen, um wahr zu sein“, per SMS ohne Vorwarnung verschickt werden oder über inoffizielle Wege zu Vorstellungsgesprächen einladen, sollten skeptisch machen – vor allem, wenn formelle Kommunikationswege fehlen.  

Tech-Support-Betrüger*innen setzen auf KI 

In Tech-Support-Betrugsfällen bringen Betrüger*innen ihre Opfer dazu, unnötige technische Supportleistungen in Anspruch zu nehmen, um ein Gerät oder Softwareprobleme zu beheben, die gar nicht existieren.Bei Betrugsfällen im technischen Support besteht ein erhöhtes Risiko, auch wenn KI keine Rolle spielt. Beispielsweise  stellte Microsoft Threat Intelligence Mitte April 2024 fest, dass die auf Ransomware spezialisierte Cybercrime-Gruppe Storm-1811 versuchte, Microsofts Remote-Tool Quick Assist missbrauchte, indem sie sich als IT-Support ausgab. Quick Assist ermöglicht es Nutzer*innen, ihr Windows- oder macOS-Gerät per Fernzugriff freizugeben.  Microsoft konnte nicht feststellen, dass bei diesen Angriffen KI zum Einsatz kam. Stattdessen gab sich Storm-811 durch Voice-Phishing (Vishing), als eine Form des Social Engineering, als legitime Organisation aus und überzeugte die Opfer, ihnen über Quick Assist Zugriff auf ihr Gerät zu gewähren. 

Als Reaktion auf die Aktivitäten von Storm-1811 und ähnliche Gruppen hat Microsoft gezielte Maßnahmen ergriffen – etwa durch Sperrungen verdächtiger Konten, die mit unlauterem Verhalten in Verbindung stehen. Grundsätzlich gilt: Wer ungefragt Tech-Support anbietet, handelt in den meisten Fällen betrügerisch. Gibt sich jemand als Microsoft-Mitarbeiter*in aus, können Sie den Vorfall unter https://www.microsoft.com/reportascam melden. 

Im Rahmen der Secure Future Initiative (SFI) verfolgt Microsoft einen proaktiven Ansatz, um Produkte und Dienste von Grund auf betrugssicher zu gestalten, oder „Fraud-resistant by Design“. Im Januar 2025 gilt eine neue Richtlinie zur Betrugsprävention: Produktteams müssen bereits in der Entwicklungsphase systematisch Maßnahmen gegen Betrug mitdenken und umsetzen.  

Empfehlungen:  

  • Stärkere Authentifizierung von Arbeitgebenden: Betrüger*innen kapern häufig echte Unternehmensprofile oder geben sich als Recruiter*innen aus, um Jobsuchende zu täuschen. Jobplattformen sollten daher verpflichtend auf Multifaktor-Authentifizierung (MFA) sowie verifizierte ID1-Funktionen über Entra ID für Arbeitgeberkonten setzen. So wird es für Unbefugte deutlich schwieriger, legitime Profile zu übernehmen. 
  • Erkennung KI-gestützter Bewerbungsbetrügereien: Unternehmen sollten Technologien zur Deepfake-Erkennung einsetzen, um manipulierte Vorstellungsgespräche zu erkennen – etwa durch Erkennung von Auffälligkeiten bei Mimik oder Sprachmustern. 
  • Vorsicht bei Angeboten, die „zu gut klingen, um wahr zu sein“: Webseiten und Jobanzeigen sollten auf Echtheit geprüft werden. Hinweise liefern etwa sichere Verbindungen (https) und Tools wie der Tippfehlerschutz von Microsoft Edge. 
  • Keine sensiblen Daten an nicht verifizierte Quellen herausgeben: Seien Sie misstrauisch bei Stellenanzeigen, die Zahlungen fordern, die auf inoffiziellen Kanälen wie SMS, WhatsApp oder privaten Gmail kommunizieren oder die Kontaktaufnahme über private Telefonnummern anfragen. 

Verteidigung gegen Angriffe  

Mit Microsofts Security Signals gegen Betrug vorgehen 

Microsoft arbeitet gezielt daran, KI-gestützten Betrugsversuchen Einhalt zu gebieten – mit intelligenten Erkennungsmodellen auf Basis von maschinellem Lernen. Diese Technologie ermöglicht es Computern, eigenständig Muster in großen Datenmengen zu erkennen – ohne explizite Anweisungen. Diese Muster werden genutzt, um ein umfassendes KI-Modell zu erstellen, das mit hoher Genauigkeit Vorhersagen treffen kann. 

Wir haben direkt in unsere Produkte integrierte entwickelt, die Nutzer*innen vor potenziell schädlichem Verhalten warnen und neue Angriffstypen schnell erkennen und verhindern.  

Unser Anti-Fraud-Team hat außerdem eine Domain Impersonation Protection entwickelt – einen Schutzmechanismus vor Domain-Imitation. Der Mechanismus greift bereits bei der Erstellung von Domains mithilfe von Deep-Learning-Technologie ein – ein wichtiger Schritt im Kampf gegen betrügerische E-Commerce-Webseiten und gefälschte Stellenangebote. Auch Microsoft Edge unterstützt mit einem Tippfehlerschutz, während auf LinkedIn KI-gestützte Systeme zur Erkennung gefälschter Jobanzeigen zum Einsatz kommen. 

ScamSLMer, auch bekannt als „Scareware Blocker“, ist ein wichtiger Schutz in Microsoft Edge. Der Scareware-Blocker schützt Nutzer*innen vor verdächtigen Seiten, die den Vollbildmodus missbrauchen, und hilft Nutzer*innen durch den Austausch von Feedback mit den menschlichen Prüfer*innen des WDS-SmartScreen-Teams und der ML-Cloud. Nach einer beschleunigten Überprüfung werden von Endnutzer*innen gemeldete bösartige Seiten von WDS-SmartScreen blockiert, um andere vor Missbrauch zu schützen. 

Microsoft Defender Smartscreen ist ein cloudbasiertes Sicherheits-Feature, das unsicheres Surfverhalten verhindern soll. Smartscreen analysiert Webseiten, Dateien und Anwendungen auf Grundlage ihres Rufs und typischer Verhaltensmuster. SmartScreen ist in Windows und den Edge-Browser integriert und schützt Nutzer*innen vor Phishing-Angriffen, schädlichen Webseiten und potenziell gefährlichen Downloads. 

Darüber hinaus arbeitet Microsofts Digital Crimes Unit (DCU) eng mit Partnern aus dem privaten und öffentlichen Sektor zusammen, um die Infrastruktur hinter betrugsbasierten Angriffen zu zerschlagen. In enger Abstimmung mit Strafverfolgungsbehörden weltweit konnten bereits hunderte Festnahmen erzielt und immer härtere Strafen durchgesetzt werden. Die DCU nutzt Erkenntnisse aus vergangenen Maßnahmen gezielt, um Akteure zu bekämpfen die generative KI für bösartige oder betrügerische Zwecke missbrauchen wollen. 

Quick Assist und Remotehilfe: Schutz vor Tech-Support-Betrug 

Um Tech-Support-Betrug gezielt zu bekämpfen, haben wir in Quick Assist Warnhinweise integriert, die Nutzer*innen informieren, wenn potenziell betrügerische Support-Anfragen eingehen – etwa von Personen, die sich fälschlich als IT-Abteilung oder technischer Support ausgeben. 

Windows-User*innen müssen die Sicherheitswarnung lesen und bestätigen, indem sie das entsprechende Kontrollkästchen anklicken, bevor sie jemandem den Fernzugriff auf ihr Gerät gewähren.  

Microsoft hat Quick Assist für Windows-Nutzer*innen erheblich durch den Einsatz des Security Signals verbessert. Als Reaktion auf Tech-Support-Scams und andere Bedrohungen blockiert Microsoft derzeit durchschnittlich 4.415 verdächtige Quick Assist-Verbindungsversuche pro Tag. Das entspricht etwa 5,46% aller weltweiten Quick Assist-Sitzungen. Betroffen sind insbesondere Verbindungen mit verdächtigen Eigenschaften, beispielsweise in Verbindung mit böswilligen Akteuren oder nicht verifizierten Verbindungen. 

Der stetige Ausbau der Schutzmechanismen in Quick Assist zielt darauf ab, anpassungsfähigen Cyberkriminellen entgegenzuwirken, die früher einzelne Personen mit betrügerischen Verbindungsversuchen ins Visier nahmen, inzwischen jedoch verstärkt Unternehmen mit organisierten Cybercrime-Kampagnen attackieren. Microsofts Maßnahmen haben geholfen, diese Aktivitäten zu unterbinden. 

Die Digital Fingerprinting-Funktion, die KI und maschinelles Lernen nutzt, unterstützt die Schutzmaßnahmen, indem sie Betrugs- und Risikosignale sammelt, die betrügerische Aktivitäten erkennen. Wenn die Signale einen Betrugsversuch feststellen, wird die Quick Assist-Sitzung automatisch beendet.  

Für Unternehmen, die sich gegen Tech-Support-Betrug schützen möchten, bietet Remote Help eine weitere wertvolle Ressource für Mitarbeitende. Remote Help ist für die interne Nutzung in Organisationen konzipiert und enthält Funktionen, die sie besonders für den Unternehmenseinsatz geeignet machen. 

Durch die Eindämmung von Betrugsversuchen möchte Microsoft die Sicherheit seiner Produkte insgesamt verbessern und Nutzer*innen bestmöglich vor schädlichen Aktivitäten schützen. 

Tipps zum Verbraucherschutz 

Betrüger*innen nutzen psychologische Druckmittel wie Dringlichkeit, Verknappung, Vertrauen und sozialen Druck, um Verbraucher*innen zu täuschen. Seien Sie hier besonders achtsam:: 

  • Spontankäufe – Betrüger*innen setzen auf künstlichen Zeitdruck, etwa mit limitierten Angeboten oder Countdowns, um zu vorschnellen Käufen zu verleiten. 
  • Vorsicht vor gefälschter sozialer Bestätigung – KI generiert gefälschte Bewertungen, Influencer*innen-Empfehlungen und Erfahrungsberichte, die ein Produkt oder Unternehmen seriös erscheinen lassen. 
  • Nicht unüberlegt auf Anzeigen klicken – Viele betrügerische Webseiten verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher*innen sollten Domainnamen und Bewertungen gegenchecken, bevor sie einen Kauf tätigen. 
  • Zahlungssicherheit beachten – Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen, da diese keinen Käuferschutz bieten. 

Jobsuchende sollten die Seriosität von Arbeitgebern überprüfen, auf typische Warnsignale bei Jobbetrug achten und keine persönlichen oder finanziellen Daten an nicht verifizierte Unternehmen weitergeben: 

  • Arbeitgeber überprüfen – Nutzen Sie Plattformen wie LinkedIn, Glassdoor oder die offiziellen Firmenwebseite, um die Echtheit des Arbeitgebers zu bestätigen. 
  • Typische Warnzeichen erkennen – Wenn ein Jobangebot Zahlungen im Voraus für Schulungsunterlagen, Zertifikate oder Hintergrundprüfungen verlangt, handelt es sich sehr wahrscheinlich um Betrug. Auch unrealistisch hohe Gehälter oder Remote-Stellen ohne jegliche Erfahrung sollten mit Vorsicht betrachtet werden. E-Mails von kostenlosen Domains (z.B. [email protected] statt [email protected]) sind ebenfalls ein typisches Merkmal betrügerischer Angebote. 
  • Vorsicht bei KI-generierten Interviews und Kommunikation – Wenn ein Videointerview merkwürdig wirkt – etwa durch unpassende Lippenbewegungen, roboterhafte Sprache oder seltsame Gesichtsausdrücke – könnte Deepfake-Technologie dahinterstecken. Jobsuchende sollten die Seriosität von Recruiter*innen immer über die offizielle Website des Unternehmens verifizieren, bevor sie auf ein Gespräch eingehen. 
  • Keine persönlichen oder finanziellen Daten preisgeben – Geben Sie unter keinen Umständen Informationen wie Sozialversicherungsnummern, Bankverbindungen oder Passwörter an nicht verifizierte Arbeitgeber weiter. 

Microsoft ist Mitglied der Global Anti-Scam Alliance (GASA). Ziel dieser Allianz ist es, Regierungen, Strafverfolgungsbehörden, Verbraucherschutzorganisationen, Finanzaufsichtsbehörden und -anbieter, Marken- und Produktschutzagenturen, soziale Netzwerke, Internetdienstanbieter sowie Cybersicherheitsunternehmen zusammenzubringen, um Wissen auszutauschen und Verbraucher besser vor Betrug zu schützen. 

Empfehlungen: 

  • Remote Help: Microsoft empfiehlt den Einsatz von Remote Help anstelle von Quick Assist für den internen IT-Support. Remote Help ist speziell für die interne Nutzung innerhalb einer Organisation konzipiert und verfügt über Funktionen, die vor Tech-Support-Betrug schützen. Remote Help wurde so entwickelt, dass es ausschließlich innerhalb des jeweiligen Mandanten einer Organisation verwendet werden kann – und bietet damit eine sicherere Alternative zu Quick Assist. 
  • Digital Fingerprinting: Unsere Funktion für Digital Fingerprinting erkennt bösartiges Verhalten und kann dieses konkret auf bestimmte Personen zurückführen. Das hilft dabei, unbefugte Zugriffe zu überwachen und zu verhindern. 
  • Blockierung von Vollzugriffsanfragen: Quick Assist zeigt jetzt Sicherheitswarnungen an und verlangt von Nutzenden, dass sie per Checkbox das Sicherheitsrisiko beim Teilen ihres Bildschirms aktiv bestätigen. Diese Maßnahme erzeugt einen hilfreichen „Sicherheits-Widerstand“, der besonders dann greift, wenn Nutzer*innen abgelenkt oder im Multitasking sind – und sorgt so für einen zusätzlichen Moment der Aufmerksamkeit vor der Autorisierung. 

 

Expertenprofil

Kelly Bissell: Ein Cybersecurity-Pionier im Kampf gegen Betrug im Zeitalter der KI 

Kelly Bissells Weg in die Cybersicherheit begann unerwartet im Jahr 1990. Ursprünglich in der Informatik tätig, entwickelte er Software für Patientenabrechnungssysteme im Gesundheitswesen und Betriebssysteme bei Medaphis und Bellsouth, heute AT&T. 

Sein Interesse an Cybersecurity wurde geweckt, als er bemerkte, dass sich jemand in eine Telefonschaltzentrale eingeloggt hatte, um kostenlose Ferngespräche zu führen. Er verfolgte den Angreifer zurück – bis nach Rumänien. Dieses Erlebnis markierte den Anfang seiner Karriere in der Cybersicherheit. 

„Ich bin in der Cybersecurity geblieben, um Bedrohungsakteure aufzuspüren, Sicherheitskontrollen bei Hunderten Unternehmen zu implementieren und an der Entwicklung von Sicherheitsrahmen wie NIST sowie an Vorschriften wie FFIEC, PCI, NERC-CIP mitzuwirken“, erklärt Kelly. 

Heute ist Kelly Bissell Corporate Vice President of Anti-Fraud and Product Abuse bei Microsoft Security. Microsofts Anti-Fraud-Team setzt auf maschinelles Lernen und Künstliche Intelligenz, um präzisere Erkennungscodes zu entwickeln und Betrugsstrukturen besser zu verstehen. Sie nutzen KI-basierte Lösungen, um Bedrohungen frühzeitig zu erkennen und zu verhindern – auf Basis fortschrittlicher Betrugserkennungs-Frameworks, die sich kontinuierlich weiterentwickeln. 

„Cyberkriminalität ist ein Problem in Billionenhöhe und es nimmt seit 30 Jahren jedes Jahr zu. Ich denke, wir haben jetzt die Chance, KI schneller zu adaptieren, um Schwachstellen rasch zu erkennen und zu schließen. Heute haben wir KI, die in großem Maßstab etwas bewirken kann – und die es uns ermöglicht, Sicherheits- und Betrugsschutzfunktionen wesentlich schneller in unsere Produkte zu integrieren. Ich glaube auch, wir müssen weg von der Denkweise ‘Kunde’ und ‘Anbieter’ – hin zu einer echten Partnerschaft. Zusammen mit der Digital Crimes Unit von Microsoft habe ich kürzlich in Griechenland mit Führungskräften von INTERPOL sowie mit Vertreterinnen und Vertretern von Strafverfolgungsbehörden, nationalen Cybersicherheitsbehörden und Finanzministerien aus 15 Ländern genau daran gearbeitet.“ 

Zuvor leitete Kelly das Microsoft Detection and Response Team (DART) und gründete das GHOST-Team (Global Hunting, Oversight, and Strategic Triage), das Bedrohungen wie Storm-0558 und Midnight Blizzard identifizierte und darauf reagierte. 

Vor seiner Zeit bei Microsoft war Kelly bei Accenture und Deloitte tätig, wo er mit Unternehmen und Regierungsbehörden wie dem Department of Homeland Security’s Cybersecurity and Infrastructure Security Agency (CISA) und dem FBI zusammenarbeitete. Dort half er, Sicherheitssysteme innerhalb ihrer Organisationen aufzubauen. 

Als Chief Information Security Officer (CISO) einer Bank wurde er mit den Herausforderungen rund um Cybersicherheit und Betrugsprävention konfrontiert. Diese Erfahrungen führten ihn dazu, aktiv an der Ausarbeitung von regulatorischen Leitlinien mitzuwirken, sowohl zum Schutz von Banken als auch später bei Microsoft. 

Kelly Bissell hat zudem entscheidend an der Gestaltung von Vorschriften rund um das National Institute of Standards and Technology (NIST) und die Payment Card Industry (PCI) Compliance mitgewirkt, die die Sicherheit von Kreditkartentransaktionen im Unternehmensumfeld gewährleisten. 

International hat Kelly eine entscheidende Rolle dabei gespielt, Cybersicherheitsbehörden aufzubauen und Schutzmaßnahmen zu verbessern. Als Berater in London war er maßgeblich daran beteiligt, das britische National Cyber Security Centre (NCSC) auf denWeg zu bringen – eine Einrichtung, die dem Government Communications Headquarters (GCHQ) untersteht und das britische Pendant zur US-amerikanischen Cybersecurity and Infrastructure Security Agency (CISA) darstellt. Kellys Engagement in der Content-Moderation bei mehreren Social-Media-Unternehmen, darunter YouTube, war ausschlaggebend für die Entfernung schädlicher Inhalte.  

Deshalb ist er besonders begeistert von Microsofts Partnerschaft mit der Global Anti-Scam Alliance (GASA). GASA bringt Regierungen, Strafverfolgungsbehörden, Verbraucherschutzorganisationen, Finanzaufsichten, Internetdienstanbieter, Cybersicherheitsunternehmen und viele weitere Akteure zusammen, um Wissen auszutauschen und gemeinsame Maßnahmen gegen Betrug zu entwickeln, um Verbraucher besser zu schützen. 

„Wenn ich Microsoft schütze, ist das gut, aber nicht ausreichend. Und wenn Apple sein Ding macht und Google sein Ding macht, wir aber nicht zusammenarbeiten, haben wir alle die größere Chance verpasst. Wir müssen Informationen über Cyberkriminalität miteinander teilen und die Öffentlichkeit aufklären. Wenn wir einen dreigleisigen Ansatz verfolgen – Technologieunternehmen, die Sicherheits- und Betrugsschutz in ihre Produkte einbauen, öffentliche Sensibilisierung und das Teilen von Informationen über Cyberkriminalität und Betrüger mit Strafverfolgungsbehörden – dann, denke ich, können wir wirklich etwas bewirken.“ 

 

Erfahren Sie mehr über die Microsoft Security-Lösungen auf unserer Webseite. Bookmarken Sie den Security Blog, um stets über unsere fachkundigen Beiträge zu Sicherheitsthemen informiert zu bleiben. Folgen Sie uns außerdem auf LinkedIn (Microsoft Security) und auf X (@MSFTSecurity), um die neuesten Nachrichten und Updates rund um Cybersicherheit zu erhalten.

Methodik:  

Microsoft-Plattformen wie Microsoft Defender for Office, Microsoft Threat Intelligence und die Microsoft Digital Crimes Unit (DCU) lieferten anonymisierte Daten zu Aktivitäten und Trends von Bedrohungsakteuren. Darüber hinaus stellte Microsoft Entra ID anonymisierte Daten zu Bedrohungsaktivitäten bereit, etwa zu bösartigen E-Mail-Konten, Phishing-E-Mails und dem Bewegungsverhalten von Angreifern innerhalb von Netzwerken. Weitere Erkenntnisse stammen aus den täglichen Sicherheitssignalen aus dem gesamten Microsoft-Ökosystem – einschließlich Cloud, Endpunkten, Intelligent Edge sowie der Telemetrie von Microsoft-Plattformen und -diensten. 

Weitere Infos zu diesem Thema