Ein Beitrag von von Takeshi Numoto,
Executive Vice President und Chief Marketing Officer
Mit dem Fortschritt der Künstlichen Intelligenz haben wir alle die Verantwortung, die positiven Auswirkungen der KI für Organisationen und Gemeinschaften auf der ganzen Welt zugänglich zu machen. Deshalb konzentrieren wir uns darauf, unsere Kunden bei der Nutzung und Entwicklung vertrauenswürdiger KI zu unterstützen, also KI, die sicher ist und Daten schützt.
Wir bei Microsoft setzen uns für vertrauenswürdige KI ein und entwickeln branchenführende Technologien zur Unterstützung davon. Unser Engagement und unsere Fähigkeiten gehen Hand in Hand, um sicherzustellen, dass unsere Kunden und Entwickler*innen auf allen Ebenen geschützt sind. Aufbauend auf unserem Engagement kündigen wir nun neue Produktfunktionen an, die die Sicherheit und den Datenschutz von KI-Systemen verbessern.
Sicherheit: Sicherheit hat bei Microsoft höchste Priorität, und unsere erweiterte Secure Future Initiative (SFI) unterstreicht unser unternehmensweites Engagement und unsere Verantwortung für die Sicherheit unserer Kunden. Diese Woche haben wir unseren ersten SFI-Fortschrittsbericht veröffentlicht, in dem wir über Updates in den Bereichen Kultur, Governance, Technologie und Operations berichten. Damit lösen wir unser Versprechen ein, Sicherheit Vorrang zu geben, wobei wir uns dabei von drei Prinzipien leiten lassen: Secure by Design, Secure by Default und Secure Operations. Zusätzlich zu unseren Angeboten Microsoft Defender und Purview sind unsere KI-Dienste mit grundlegenden Sicherheits-Features ausgestattet, wie etwa integrierten Funktionen zur Abwehr von Cyberangriffen wie Prompt Injections oder von Urheberrechtsverletzungen. Darauf aufbauend kündigen wir nun zwei neue Funktionen an:
- Evaluations sind nun in Azure AI Studio zur Unterstützung proaktiver Risikobewertungen integriert
- Microsoft 365 Copilot bietet nun Transparenz bei Webabfragen, damit Administrator*innen und Nutzer*innen besser verstehen, wie die Websuche die Copilot-Antwort verbessert (bald verfügbar)
Unsere Sicherheitsfunktionen werden bereits von Kunden eingesetzt. Das Traditionsunternehmen Cummins, eine Firma mit 105-jähriger Geschichte, das Motoren herstellt und saubere Energietechnologien entwickelt, nutzt bereits Microsoft Purview. Dadurch kann es seine Datensicherheit und -verwaltung durch die Automatisierung der Klassifizierung, Kennzeichnung und Beschriftung von Daten zu verbessern. EPAM Systems, eine Unternehmensberatung und Softwareentwicklung, setzt Microsoft 365 Copilot für 300 Nutzer*innen ein, um vom Microsoft-Datenschutz zu profitieren. J.T. Sodano, Senior Director of IT bei EPAM Systems, sagt dazu: „Wir haben viel mehr Vertrauen in Copilot für Microsoft 365 als in andere große Sprachmodelle (LLMs), weil wir wissen, dass die gleichen Datenschutz- und Informationsrichtlinien, die wir in Microsoft Purview konfiguriert haben, auch für Copilot gelten.”
Schutz: Die 2018 eingeführten umfassenden Grundsätze für verantwortungsvolle KI von Microsoft berücksichtigen sowohl die Sicherheit als auch den Datenschutz und dienen weiterhin als Leitfaden für die sichere Entwicklung und Bereitstellung von KI im gesamten Unternehmen. In der Praxis bedeutet dies, dass Systeme ordnungsgemäß eingerichtet, getestet und überwacht werden müssen, um unerwünschte Ergebnisse wie schädliche Inhalte, Voreingenommenheit, Missbrauch und andere (unbeabsichtigte) Risiken zu vermeiden. Im Laufe der Jahre haben wir erhebliche Investitionen getätigt, um die notwendigen Governance-Strukturen, Richtlinien, Tools und Prozesse zu schaffen, die es braucht, um diese Grundsätze einzuhalten und KI sicher zu nutzen und weiterzuentwickeln. Wir bei Microsoft teilen unsere Erfahrungen und Erkenntnisse, die wir bei der Einhaltung dieser Grundsätze gelernt haben, mit unseren Kunden. Wir nutzen unsere eigenen Best Practices und unser Wissen, um Anwender*innen und Organisationen wichtige Fähigkeiten und Werkzeuge an die Hand zu geben. Damit können sie KI-Anwendungen mit denselben hohen Standards entwickeln, die auch wir anstreben.
Nun stellen wir neue Funktionen vor, die Kunden dabei helfen, die Vorteile der KI zu nutzen und gleichzeitig Risiken zu minimieren:
- Eine Korrekturfunktion in der Funktion „Groundedness Detection“ von Microsoft Azure AI Content Safety, die dabei hilft, Halluzinationsprobleme in Echtzeit zu beheben, bevor Nutzer*innen sie sehen.
- Embedded Content Safety, mit dem Kunden Azure AI Content Safety auf Geräten einbetten können. Dies ist wichtig, wenn die Cloud-Konnektivität auf Geräten unterbrochen oder nicht verfügbar ist.
- Neue Analysen in Azure AI Studio helfen Kunden dabei, die Qualität und Relevanz der Ergebnisse zu bewerten und zu ermitteln, wie oft ihre KI-Anwendung geschütztes Material ausgibt.
- Die geschützte Materialerkennung für Code ist jetzt in Azure AI Content Safety in der Vorschau verfügbar, um bereits vorhandene Inhalte und Codes zu erkennen. Diese Funktion hilft Entwickler*innen, öffentlichen Quellcode in GitHub-Repositories zu untersuchen, und fördert so Zusammenarbeit und Transparenz, während sie gleichzeitig fundiertere Entscheidungen beim Programmieren ermöglicht.
Es ist wunderbar zu sehen, wie Kunden aus verschiedenen Branchen Microsoft-Lösungen bereits nutzen, um sicherere und vertrauenswürdigere KI-Anwendungen zu entwickeln. So hat beispielsweise Unity, eine Plattform für 3D-Spiele, den Microsoft Azure OpenAI Service genutzt, um Muse Chat zu entwickeln, einen KI-Assistenten, der die Spieleentwicklung erleichtert. Muse Chat verwendet Inhaltsfilterungsmodelle in Azure AI Content Safety, um eine verantwortungsvolle Nutzung der Software zu gewährleisten. Darüber hinaus nutzte ASOS, ein britischer Modehändler mit fast 900 Markenpartnern, dieselben integrierten Inhaltsfilter in Azure AI Content Safety, um über eine KI-App, die Kunden bei der Suche nach neuen Looks inspiriert, Interaktionen in höchster Qualität zu ermöglichen.
Auch im Bildungsbereich sehen wir bereits Auswirkungen. Die New York City Public Schools haben in Zusammenarbeit mit Microsoft ein sicheres und für den Bildungskontext geeignetes Chat-System entwickelt, das sie nun in Schulen testen. Das Bildungsministerium von Südaustralien hat mit EdChat ebenfalls generative KI in die Klassenzimmer gebracht und dabei dieselbe Infrastruktur genutzt, um eine sichere Nutzung für Schüler*innen und Lehrer*innen zu gewährleisten.
Datenschutz. Daten sind die Grundlage der KI – und Microsoft hat es sich zur Aufgabe gemacht, durch unsere Datenschutzgrundsätze, zu denen Benutzerkontrolle, Transparenz sowie rechtlicher und regulatorischer Schutz gehören, sicherzustellen, dass Kundendaten geschützt und konform sind. Um darauf aufzubauen, kündigen wir nun Folgendes an:
- Confidential Inferencing als Vorschau in unserem Azure OpenAI Service Whisper-Modell, damit Kunden generative KI-Anwendungen entwickeln können, die einen überprüfbaren End-to-End-Datenschutz unterstützen. Confidential Inferencing stellt sicher, dass sensible Kundendaten während des Inferenzprozesses sicher und privat bleiben. Dies ist der Fall, wenn ein trainiertes KI-Modell Vorhersagen oder Entscheidungen auf der Grundlage neuer Daten trifft. Dies ist besonders wichtig für stark regulierte Branchen wie Gesundheit, Finanzdienstleistungen, Einzelhandel, Fertigung und Energie.
- Die breite Verfügbarkeit von Azure Confidential VMs mit NVIDIA H100 Tensor Core-Grafikprozessoren, die es Kunden ermöglichen, Daten direkt auf dem Grafikprozessor zu sichern. Dies baut auf unseren vertraulichen IT-Lösungen auf, die sicherstellen, dass Kundendaten in einer sicheren Umgebung verschlüsselt und geschützt bleiben. So kann niemand unbefugt auf die Informationen oder das System zugreifen.
- Azure OpenAI Data Zones für die EU und die USA werden in Kürze verfügbar sein und bauen auf der bestehenden Datenresidenz des Azure OpenAI Service auf, um die Datenverarbeitung und -speicherung für generative KI-Anwendungen zu vereinfachen. Diese neue Funktionalität bietet Kunden die Flexibilität, generative KI-Anwendungen über alle Azure-Regionen innerhalb einer Region hinweg zu skalieren, während sie gleichzeitig die Kontrolle über die Datenverarbeitung und -speicherung innerhalb der EU oder der USA behalten.
Wir haben ein wachsendes Kundeninteresse an vertraulicher Datenverarbeitung und Begeisterung für vertrauliche GPUs festgestellt. So verwendet der Anbieter von Anwendungssicherheit F5 Azure Confidential VMs mit NVIDIA H100 Tensor Core-GPUs, um fortschrittliche KI-basierte Sicherheitslösungen zu entwickeln und gleichzeitig die Vertraulichkeit der von seinen Modellen analysierten Daten zu gewährleisten. Und die multinationale Bank Royal Bank of Canada (RBC) hat Azure Confidential Computing in ihre eigene Plattform integriert, um verschlüsselte Daten zu analysieren und gleichzeitig die Privatsphäre ihrer Kunden zu schützen. Mit der allgemeinen Verfügbarkeit von Azure Confidential VMs mit NVIDIA H100 Tensor Core-Grafikprozessoren kann RBC nun diese fortschrittlichen KI-Tools nutzen, um effizienter zu arbeiten und leistungsfähigere KI-Modelle zu entwickeln.
Mehr mit vertrauenswürdiger KI erreichen
Wir alle brauchen und wünschen uns KI, der wir vertrauen können. Wir haben gesehen, was möglich ist, wenn Menschen befähigt werden, KI auf vertrauenswürdige Weise zu nutzen – von der Verbesserung der Mitarbeitendenerfahrung und der Neugestaltung von Geschäftsprozessen bis hin zur Neuausrichtung der Kundenbindung und der Neugestaltung unseres Alltags. Mit neuen Funktionen, die die Sicherheit und den Schutz der Privatsphäre verbessern, ermöglichen wir es unseren Kunden weiterhin, vertrauenswürdige KI-Lösungen zu nutzen und zu entwickeln, die allen Menschen und Organisationen zugutekommen. Letztendlich umfasst Trustworthy AI alles, was wir bei Microsoft tun – und ist für unsere Mission von entscheidender Bedeutung, da wir daran arbeiten, Möglichkeiten zu erweitern, Vertrauen zu gewinnen, Grundrechte zu schützen und Nachhaltigkeit in allem, was wir tun, zu gewährleisten.
Den Originalbeitrag in englischer Sprache finden Sie hier.