Die Microsoft AI Tour machte vor Kurzem in Brüssel, Paris und Berlin Station. Dort trafen sich auch viele europäische Organisationen. Sie waren von den Möglichkeiten der neuesten KI-Technologien begeistert und arbeiten bereits an deren Implementierung. Gleichzeitig wurde deutlich: 2025 wird ein entscheidendes Jahr, denn mit dem Inkrafttreten des weltweit ersten umfassenden KI-Gesetzes beginnt ein neues Kapitel der digitalen Regulierung.
Microsoft ist bereit, seine Kunden bei zwei zentralen Herausforderungen zu unterstützen: Innovation mit KI voranzutreiben und gleichzeitig die Anforderungen des EU AI Acts zu erfüllen. Alle Produkte und Dienstleistungen werden so entwickelt, dass sie den Vorgaben des Gesetzes entsprechen. Darüber hinaus arbeitet Microsoft eng mit Kunden zusammen, um sicherzustellen, dass sie KI-Technologien gesetzeskonform implementieren und einsetzen. In Kooperation mit europäischen Entscheidungsträger*innen entwickelt das Unternehmen praxistaugliche und effiziente Ansätze zur Umsetzung des EU AI Acts, die sich an internationalen Standards orientieren.
Im Folgenden gehen wir näher auf unsere Ansätze und Pläne ein. Da die Fristen für die Umsetzung des EU AI Acts gestaffelt sind und einige Details noch nicht final geklärt wurden, werden Informationen und Tools fortlaufend bereitgestellt. Bleiben Sie mit unserer Dokumentation im Microsoft Trust Center zum EU AI Act auf dem Laufenden.
Entwicklung von Microsoft-Produkten und -Diensten im Einklang mit dem EU AI Act
Unternehmen weltweit setzen Microsoft-Produkte und -Dienste ein, um innovative KI-Lösungen zu entwickeln, die ihnen helfen, mehr zu erreichen. Für unsere Kunden – insbesondere für solche, die global in unterschiedlichen Rechtssystemen arbeiten – ist die Einhaltung aller lokalen Vorschriften essenziell. Um dies zu gewährleisten, haben wir frühzeitig in unser KI-Governance-Programm investiert und bauen dieses kontinuierlich aus.
Wie in unserem ersten Transparenzbericht erläutert, basiert unser Ansatz auf einem umfassenden Risikomanagement, das den gesamten Lebenszyklus der KI-Entwicklung abdeckt. Wir setzen auf bewährte Methoden, wie Risikoanalysen und Red-Teaming, um potenzielle Gefahren frühzeitig zu erkennen. Teams, die an besonders sensiblen Modellen und Systemen arbeiten, erhalten zusätzliche Unterstützung durch unsere Governance-Prozesse. Identifizierte Risiken bewerten wir systematisch danach, wie häufig sie vorkommen und anhand klar definierter Metriken, wie groß das Risiko ist, das von ihnen ausgeht. Zur Risikominderung setzen wir Lösungen wie die Azure AI Content Safety ein, stellen eine kontinuierliche Überwachung sicher und sind darauf vorbereitet, wenn nötig schnell reagieren zu können.
Unser Leitfaden für Entwicklungsteams, der Responsible AI Standard V2, wurde basierend auf einer frühen Fassung des EU AI Acts entwickelt. Er bildet die Grundlage unserer KI-Lösungen.
Auf Basis dieses soliden Fundaments haben wir massiv investiert, um den EU AI Act in allen Bereichen von Microsoft umzusetzen. In den letzten Monaten passten funktionsübergreifende Teams – bestehend aus Expert*innen für KI-Governance, Technik, Recht und öffentliche Ordnung – unsere internen Standards und Prozesse an den finalen Text des Gesetzes an. Gleichzeitig ermittelten sie zusätzliche technische Maßnahmen, damit wir und unsere Kunden auf die neuen Anforderungen bestens vorbereitet sind.
Die Vorschriften des EU AI Acts zu verbotenen Praktiken werden so zu den ersten gehören, die im Februar 2025 in Kraft treten. Bevor das neu eingerichtete KI-Büro der Europäischen Kommission in den kommenden Monaten weitere Richtlinien veröffentlicht, verfolgen wir bereits jetzt einen proaktiven, mehrstufigen Compliance-Ansatz.
Dazu gehört:
- Prüfung und Anpassung bestehender Microsoft-Systeme: Um sicherzustellen, dass unsere bestehenden Microsoft-Systeme den Anforderungen des EU AI Acts entsprechen, haben wir sie umfassend überprüft. Dazu haben wir identifiziert, wo Anpassungen nötig sein könnten – sei es durch die Aktualisierung der Dokumentation oder die Umsetzung technischer Maßnahmen. Anhand eines dazu eigens entwickelten Fragenkatalogs bewerten wir, ob ein KI-System potenziell verbotene Praktiken einsetzt. Die Fragen wurden über unser zentrales Tool an die Entwicklungsteams weitergeleitet und deren Antworten von relevanten Expert*innen geprüft. Bei Bedarf traten diese dann direkt mit den Teams in Kontakt, um Unklarheiten zu beseitigen oder zusätzliche Maßnahmen einzuleiten. Diese Screening-Fragen sind nun fester Bestandteil unseres zentralen Workflow-Tools für verantwortungsvolle KI. Auch andere Teams, die an neuen KI-Systemen arbeiten, können sie einsetzen und bei Bedarf automatisch den Überprüfungsprozess starten.
- Neue Richtlinien für Nutzung, Marketing und Vertrieb: Wir werden unsere internen Unternehmensrichtlinien um neue Nutzungsbeschränkungen ergänzen. So stellen wir sicher, dass Microsoft keine KI-Systeme entwickelt oder einsetzt, die nach dem EU AI Act verboten sind. Zusätzlich arbeiten wir an speziellen Marketing- und Vertriebsrichtlinien. Diese sollen gewährleisten, dass unsere KI-Technologien nicht für Zwecke beworben oder verkauft werden, die nach dem EU AI Act potenziell verbotene Praktiken anwenden.
- Anpassung von Verträgen und des Verhaltenskodex: Wir haben unsere Verträge, einschließlich unseres Verhaltenskodex für generative KI, überarbeitet. Unseren Kunden wird auf diese Weise vermittelt, dass sie keine verbotenen Praktiken ausüben dürfen. Ein wichtiger Bestandteil dieser Aktualisierung ist ein ausdrückliches Verbot des Einsatzes von Social Scoring Services, das nun im Verhaltenskodex für generative KI verankert ist.
Wir gehören zu den ersten Organisationen, die sich zu den drei Kernverpflichtungen des AI Pacts bekennen. Diese freiwilligen Verpflichtungen unterstützen Unternehmen bei der Umsetzung der regulatorischen Anforderungen, die im Rahmen des EU AI Acts auf sie zukommen. Zusätzlich zum Veröffentlichungsrhythmus jährlicher Berichte zur verantwortungsvollen KI-Transparenz finden Sie auf dem Microsoft Trust Center einen Überblick über unseren Ansatz zum EU AI Act und eine detailliertere Zusammenfassung, wie wir die Bestimmungen zu verbotenen Praktiken umsetzen.
Zusammenarbeit mit Kunden für gesetzeskonforme Nutzung von KI
Ein zentrales Prinzip des EU AI Act ist die Verteilung der Verantwortung auf alle Beteiligten der KI-Lieferkette. Das bedeutet, dass regulierte Akteure wie Microsoft – als Anbieter von KI-Tools, -Dienstleistungen und -Komponenten – ihre Unternehmenskunden dabei unterstützen müssen, wenn diese ein Microsoft-Tool in ein risikoreiches KI-System integrieren.
Wir begrüßen dieses Konzept der gemeinsamen Verantwortung. Und wir möchten unsere Kunden aktiv dabei unterstützen, KI verantwortungsvoll zu entwickeln und bereitzustellen. Dafür teilen wir unser Wissen, stellen umfassende Dokumentation bereit und bieten hilfreiche Tools an. Das spiegelt sich auch in unseren AI Customer Commitments wider, die wir im Juni letzten Jahres eingegangen sind, um unsere Kunden auf ihrem Weg zur verantwortungsvollen KI-Nutzung zu begleiten.
Um weiterhin bestmöglich zu unterstützen, werden wir regelmäßig neue Dokumentation und Ressourcen im Microsoft Trust Center veröffentlichen. Hier finden Sie Updates zum EU AI Act sowie Antworten auf häufig gestellte Fragen. Zusätzlich bietet unsere Responsible AI Resources-Website eine umfangreiche Sammlung von Tools, Vorlagen, Verfahren und Informationen, die unseren Kunden helfen sollen, solide Grundlagen für verantwortungsvolle Unternehmensführung zu schaffen und die Einhaltung aller Aspekte des EU AI Acts sicherzustellen.
Seit 2019 haben wir 33 Transparenzhinweise veröffentlicht, die grundlegende Informationen über die Fähigkeiten und Grenzen unserer KI-Tools, -Komponenten und -Dienste aufzeigen. Diese Hinweise sind eine wichtige Ressource für unsere Kunden, die als nachgelagerte Nutzer*innen der Microsoft KI-Plattformdienste agieren. Zusätzlich bieten wir Dokumentation zu unseren KI-Systemen an, darunter auch FAQs, die häufig gestellte Fragen beantworten. Beispiele hierfür sind unser Transparenzhinweis für Azure OpenAI Service und FAQ für Copilot, die unseren Ansatz für Transparenz und Kundeninformation verdeutlichen.
Wir erwarten, dass die zusätzlichen Regeln des EU AI Acts weitere Anweisungen für die Dokumentation von Modellen und Systemen geben werden. Diese Standards befinden sich noch in der Entwicklung und könnten durch internationale Initiativen wie den Berichtsrahmen des Hiroshima-KI-Prozesses oder den Internationalen Verhaltenskodex für Organisationen, die fortgeschrittene KI-Systeme entwickeln, weiter gestärkt werden. Microsoft freut sich, durch die Zusammenarbeit mit der OECD am Berichtsrahmen mitgewirkt zu haben.
Um unsere Kunden bei einer konsistenten und effizienten Einhaltung der Vorschriften zu unterstützen, stellen wir auch die Tools zur Verfügung, die wir intern nutzen. Dazu gehören:
- Microsoft Purview Compliance Manager, der Kunden hilft, ihre Compliance in verschiedenen regulatorischen Bereichen – einschließlich des AI Act – zu verstehen und zu verbessern.
- Azure AI Content Safety, ein Tool zur Reduzierung inhaltsbasierter Risiken.
- Azure AI Studio, das die Bewertung generativer KI-Anwendungen unterstützt.
- Python Risk Identification Tool oder PyRIT, ein Open-Innovation-Framework, das unser unabhängiges KI-Red-Team nutzt, um potenzielle Risiken in KI-Modellen und -Systemen zu identifizieren.
Hilfe bei der Entwicklung von praktischen, effektiven und gut zusammenarbeitenden Umsetzungspraktiken
Ein wichtiges Merkmal des EU AI Acts sind die über 60 zusätzlichen Regeln, die stark beeinflussen werden, wie Organisationen die Vorschriften einhalten können. Da viele dieser Maßnahmen noch neu sind, haben wir jetzt die einzigartige Chance, Umsetzungsstrategien zu entwickeln, die nicht nur effizient und effektiv, sondern auch mit aufkommenden internationalen Standards kompatibel sind.
Microsoft arbeitet eng mit der zentralen EU-Regulierungsbehörde, dem AI Office, sowie mit relevanten Behörden in den Mitgliedstaaten zusammen. Wir teilen unsere umfangreichen Erfahrungen in KI-Entwicklung, Governance und Compliance, beantworten offene Fragen und streben praktische Ergebnisse an. Zudem beteiligen wir uns an der Entwicklung eines Verhaltenskodexes für Anbieter von Allzweck-KI-Modellen und tragen seit langem mit an den technischen Standards, die von europäischen Normungsorganisationen wie CEN und CENELEC entwickelt werden, um Anforderungen für Hochrisiko-KI-Systeme zu bestimmen.
Unsere Kunden spielen ebenfalls eine Schlüsselrolle bei diesen Implementierungsbemühungen. Indem sie sich mit politischen Entscheidungsträger*innen und Branchenverbänden austauschen, um die sich entwickelnden Anforderungen zu verstehen und Einfluss darauf zu nehmen, haben unsere Kunden die Möglichkeit, ihre wertvollen Erkenntnisse einzubringen und den Einsatz von KI mitzugestalten, um ihre Umstände und Bedürfnisse besser vertreten zu sehen. Dabei wird anerkannt, dass eine Vielzahl von Organisationen in Europa durch die Möglichkeit, mit KI zu innovieren und zu wachsen, motiviert ist.
Zukünftige Entwicklungen
Microsoft wird auch weiterhin erheblich in Produkte, Tools und Governance investieren, um Innovationen mit KI zu fördern und gleichzeitig die Einhaltung neuer Vorschriften wie des EU AI Acts zu gewährleisten. Effiziente, effektive und international gut zusammenarbeitende Umsetzungspraktiken sind der Schlüssel, um sichere Innovation auf globaler Ebene zu ermöglichen. Daher werden wir uns auch in Zukunft aktiv an Regulierungsprozessen in Europa und weltweit beteiligen.
Wir freuen uns, dass die Projekte, die durch unsere Microsoft AI Tour-Veranstaltungen in Brüssel, Paris und Berlin inspiriert wurden, das Leben der Menschen positiv beeinflussen und Vertrauen schaffen. Lassen Sie uns wissen, wie wir Sie weiterhin dabei unterstützen können, die Anforderungen neuer Gesetze, wie die des EU AI Acts, zu erfüllen.
Den Originalbeitrag in englischer Sprache finden Sie hier.
Ein Beitrag von Natasha Crampton,
Microsoft Chief Responsible AI Officer