Künstliche Intelligenz (KI) wird immer mehr zu einem festen Bestandteil unseres täglichen Lebens. Häufig ist gar nicht unmittelbar erkennbar, dass in vielen Anwendungen bereits trainierte oder lernende Algorithmen zum Einsatz kommen. Je anspruchsvoller die Aufgaben von KI werden, desto komplexer werden auch die Algorithmen dahinter. Für das Vertrauen in digitale Technologien ist es aber notwendig, dass Algorithmen nachvollziehbar bleiben. Die zusammen mit der Boston Consulting Group (BCG) entwickelten Richtlinien für verantwortungsvolle KI ergänzen unsere Ressourcen und Tools für Unternehmen sowie das im Juli dieses Jahres veröffentlichte Toolkit für Human-AI eXperience (HAX).
Microsoft hat im Rahmen der Veranstaltung „Put responsible AI into practice“ zehn Richtlinien für eine verantwortungsvolle KI-Entwicklung vorgestellt. Damit werden Produktteams in den drei Phasen der Entwicklung verantwortungsvoller KI-Systeme unterstützt:
- Bei der Bewertung werden die Vorteile und potenziellen Risiken des Produkts, der Technologie sowie des Teams evaluiert.
- Die Phase „Entwerfen, erstellen und dokumentieren“ begleitet die Entwicklung der Systeme. In dieser Phase werden die Auswirkungen beim Einsatz der Systeme bewertet und das Projekt dokumentiert.
- Zur Validierung gehört die Auswahl von Testverfahren und Supportmaßnahmen. Das stellt sicher, dass die KI-Produkte exakt wie vorgesehen funktionieren.
Neues Dashboard für verantwortungsvolle KI
Die Umsetzung ethischer Prinzipien wie Fairness und Transparenz in Systemen mit künstlicher Intelligenz ist eine der größten Herausforderungen bei der Implementierung und Skalierung von KI. Das neue Responsible-AI-Dashboard (RAI) hilft Datenwissenschaftler*innen und Entwickler*innen, KI-Daten und -Modelle besser zu verstehen, zu schützen und zu kontrollieren.
Es führt häufig verwendete Tools wie Error Analysis, Fairlearn, InterpretML und DiCE in einem einzigen Workflow und in einer Benutzer*innenoberfläche zusammen. Das erleichtert es Datenwissenschaftler*innen und Entwickler*innen, Fehler zu identifizieren, zu diagnostizieren und zu korrigieren.
Mehr zu den neuen Tools und ihrem praktischen Einsatz lesen Sie im Blogpost „New resources and tools to enable product leaders to implement AI responsibly“ meiner Kollegin Alysa Taylor, Corporate Vice President of Industry, Apps, and Data Marketing bei Microsoft. Einblicke in die Arbeit bei der Entwicklung von KI-Systemen bietet der Beitrag „Building AI responsibly from research to practice“ von Eric Horvitz, Chief Scientific Officer bei Microsoft.
Ein Beitrag von Thomas Langkabel
National Technology Officer bei Microsoft Deutschland