Die Bausteine für einen verantwortungsvollen Einsatz von künstlicher Intelligenz

Bausteine-KI-Microsoft

Künstliche Intelligenz (KI) entwickelt sich in einem rasanten Tempo. Die Vorteile, die KI mit sich bringen können, werden breit diskutiert. Gleichzeitig wird die Entwicklung aber auch hinterfragt und mit Sorge verfolgt. Daher sind grundlegende Prinzipien für einen verantwortungsvollen Einsatz von KI für Microsoft ein entscheidender Baustein.

Künstliche Intelligenz kann nur dann für alle von Nutzen sein, wenn sie auf eine Weise entwickelt und eingesetzt wird, die das Vertrauen der Menschen rechtfertigt. Daher basiert unser Ansatz auf sechs KI-Prinzipien und konzentriert sich darauf, proaktiv Leitplanken für KI-Systeme im Sinne von Responsibility-by-Design festzulegen. Dazu gehören Standards, Richtlinien und klare Governance -Strukturen. Damit wollen wir sicherstellen, dass potenzielle Risiken frühzeitig erkannt und beseitigt werden können.

Es ist wichtig und richtig einen gesellschaftlichen Diskurs über einen verantwortungsvollen Umgang mit KI zu führen und dabei auch kritische Fragen zu stellen. Denn die kollektiven Entscheidungen prägen die Art und Weise, wie wir KI jetzt und zukünftig entwickeln und nutzen.

Unternehmensweite Richtlinien

Wir legen großen Wert auf klare unternehmensweite Richtlinien bei der Entwicklung und Anwendung von KI-basierten Tools. Unser Ansatz basiert auf einem sogenannten „Hub-and-Spoke-Model“, das sich bereits bei der Integration von Datenschutz, Sicherheit und Barrierefreiheit in unseren Produkten und Services bewährt hat.

Der „Hub“-Teil umfasst insgesamt drei Arbeitsgruppen, die unter anderem aus Wissenschaftler*innen, Ingenieur*innen und Expert*innen bestehen. Sie alle legen eine einheitliche Messlatte für den verantwortungsvollen Umgang mit KI innerhalb des Unternehmens fest.

Den „Spoke“-Teil bildet unsere KI-Champs Community, die verteilt in den Entwicklungs- und Vertriebsteams sitzen. Sie schärfen das Bewusstsein für den Ansatz von Microsoft, kennen die verfügbaren Tools sowie Prozesse und helfen den Teams bei ethischen oder gesellschaftlichen Problemen. Gleichzeitig festigen sie in den einzelnen Teams eine Kultur für die Entwicklung verantwortungsvoller Innovationen.

Kontinuierliche Überarbeitung des Regelwerks

Wir stellen den Mitarbeiter*innen ein kontinuierlich verbessertes Regelwerk zur Verfügung. Es baut auf den neusten Forschungs- sowie Entwicklungsgrundlagen auf und verfolgt einen menschenzentrierten Ansatz. Das Regelwerk sieht für die Entwicklung von KI-Systemen Anforderungen vor, die sich stets aus prinzipienbezogenen Zielen ergeben. Dazu gehört auch die Festlegung von Implementierungsmethoden, einschließlich notwendiger Tools und Praktiken.

Die Entwicklung eines Regelwerks geschieht nicht von heute auf morgen, sondern ist eine langjährige Anstrengung und stellt eines der wichtigsten Ziele in der Operationalisierung eines verantwortungsbewussten Einsatzes von KI dar. Dazu gehört es auch, in den Diskurs zu gehen und Meinungen anderer Expert*innen sowie das angebotene Wissen, die Expertise und die jeweilige Meinung miteinfließen zu lassen.

Grenzen prüfen und abstecken

Die rasante Entwicklung von KI hat allerdings auch zur Folge, dass sich die gesellschaftlichen Gegebenheiten und somit Anforderungen an die Anwendungen stets verändern. Das macht es unmöglich, sämtliche Anforderungen auf ein dauerhaftes und vordefiniertes Regelwerk zu reduzieren. Anwendungsfälle müssen daher immer von neuem geprüft und beurteilt werden, ob sie den aktuellen Kriterien noch standhalten. Microsoft hat seit Juli 2019 rund 200 Use Cases in sensiblen Reviewprozessen überprüft.

Auf die Weise lassen sich klare Grenzen beim Einsatz bestimmter Technologien abstecken und Grauzonen eindeutiger ermitteln. Zu den Ergebnissen des Reviewprozesses gehört es eben auch, dass wir die Möglichkeit, bestimmte KI-Anwendungen einzusetzen oder zu entwickeln, abgelehnt haben, da sie nicht unseren Prinzipien entsprochen haben. Hierzu zählt beispielsweise der Einsatz von Anwendungen zur Gesichtserkennung. Zudem verhalf uns der Reviewprozess zu der Ansicht, dass ein gesellschaftlicher Diskurs zur Verwendung von Gesichtserkennung sowie eine Gesetzeslage notwendig ist.

Denkweisen stetig weiterentwickeln

Heute wissen wir, dass KI-Systeme ganzheitlich betrachtet werden müssen. Dazu gehört, dass wir alle über die soziotechnischen Auswirkungen nachdenken und diese berücksichtigen müssen. Deshalb haben wir Schulungen und Praktiken entwickelt, die unseren Teams dabei helfen, grundlegende Fragen zu stellen, wie „Warum bauen wir dieses KI-System?“ und „Ist die KI-Technologie, die den Kern dieses Systems bildet, schon für diese Anwendung bereit?“. Im vergangenen Jahr haben wir mehr als 145.000 Mitarbeiter*innen in unseren KI-Prinzipien, den Standards und den Prozessen einer sensiblen Nutzung geschult.

Darüber hinaus haben wir mit dem Responsible AI Learning Lab einen Workshop ins Leben gerufen, der die Teilnehmer*innen durch reale Anwendungsszenarien von KI führt. Herzstück sind interaktive Übungen, in denen die Teilnehmer*innen für die notwendigen Fragen sensibilisiert werden, um über die Auswirkungen einer Technologie auf eine breite Gruppe von Menschen nachzudenken.

Technische Grundlagen schaffen

Unsere Entwickler*innenteams greifen bei der Umsetzung der KI-Prinzipien auf eine Reihe von Systemen und Tools zurück. Diese übernehmen im technischen Sinne nicht die Denkarbeit eines Menschen, sondern unterstützen die Entwickler*innen in ihrer kreativen Arbeit. Um das Rad nicht permanent neu erfinden zu müssen, ist es notwendig, eine technische Grundlage bestehend aus integrierten Systemen, Instrumenten und Tools zu schaffen. Das sorgt gleichzeitig auch für eine unternehmensweite Einheitlichkeit unter allen Teams. Diese Grundlage bildet Azure ML, dass bereits die frühen Integrationen unserer Open-Source-Tools Fairlearn und Interpret ML nutzt. Auf diese Weise profitieren auch direkt unsere Kunden*innen von den Entwicklungen.

Mit viel Bewegung Richtung Zukunft

Microsoft hat es sich zur Aufgabe gemacht, die Prinzipien zum verantwortungsbewussten Einsatz von KI konsequent und systematisch umzusetzen. Dazu zählt auch die kontinuierliche Weiterentwicklung von Richtlinien und Standards sowie aller relevanter technischer Systeme zur Umsetzung. Gleichzeitig fördert Microsoft ein unternehmensweites Bewusstsein im verantwortungsvollen Umgang mit KI.

Die Entwicklung von KI-Technologien ist eine komplexe und ethische Herausforderung. Wir sind uns bewusst, dass wir noch nicht alle Antworten gefunden haben. Wir glauben aber fest daran, dass wir mit den Bausteinen unserer KI-Prinzipien einen wichtigen Schritt leisten, den Herausforderungen entgegentreten zu können.

Wenn Sie mehr über den Ansatz von Microsoft zum verantwortungsvollen Umgang mit KI lesen möchten, empfehle ich Ihnen den Blogbeitrag meiner Kollegin Natasha Crampton.


 

Ein Beitrag von Thomas Langkabel

National Technology Officer bei Microsoft Deutschland

Thomas Langkabel

Tags: ,

Weitere Infos zu diesem Thema

28. Januar 2025
Initiativen für Wahlsicherheit und gegen Desinformation im Rahmen der Bundestagswahl 

Technologie verändert und gestaltet unser Leben kontinuierlich neu. Und so wie sich alltägliche Prozesse durch und mit der technologischen Entwicklung ändern, hat sie auch Auswirkungen auf die Politik und den demokratischen Prozess. Im besten Fall helfen digitale Technologie den Wählern, fundierte und informierte Entscheidungen zu treffen, und gewährleistet die Integrität und Sicherheit von Wahlen.

23. Januar 2025
Copilot für alle – Einführung von Microsoft 365 Copilot Chat

Heute stellen wir Microsoft 365 Copilot Chat vor, ein neues Angebot, das verbrauchsbasierte Agents (Pay as you go) zu unserem bestehenden kostenlosen Chat-Erlebnis für kommerzielle Microsoft 365-Kunden hinzufügt. Copilot Chat ermöglicht es der gesamten Belegschaft – von Kundendienstmitarbeitenden über Marketingleiter*innen bis hin zu Techniker*innen – ab sofort Copilot und Agents zu verwenden.

21. Januar 2025
Red-Teaming von 100 generativen KI-Produkten

Vor kurzem hat das Microsoft „Red Team für KI“ zentrale Erkenntnisse aus seiner Arbeit im Whitepaper „Lessons from Red Teaming 100 Generative AI Products“ veröffentlicht. Red Teams sind spezialisierte Gruppen von Sicherheitsexpert*innen, die die Rolle eines potenziellen Angreifers übernehmen, um Schwachstellen aufzudecken und schließen zu helfen.