Der Einsatz von künstlicher Intelligenz (KI) bietet enorme Chancen für Wirtschaft, Gesellschaft und jeden einzelnen Menschen. Gleichzeitig birgt die Technologie auch Risiken und berührt grundlegende Menschenrechte. Forscher*innen von Microsoft Research weisen daher in einem „Update on responsible AI research“ darauf hin, wachsam und verantwortungsvoll beim Einsatz von KI zu sein.
Menschliches Verhalten und Algorithmen beeinflussen sich gegenseitig. Sobald wir KI-gestützte Modelle zur Analyse menschlichen Verhaltens entwickeln, nehmen wir gleichzeitig Einfluss auf die Gestaltung der Gesellschaft. Bestehende Methoden zur Analyse sozialer Phänomene sind diesem „Rückkopplungsmechanismus“ aber möglicherweise nicht gewachsen. Deshalb gilt es besonders wachsam zu sein, wenn künstliche Intelligenz zum Einsatz kommt, um Muster im menschlichen Verhalten und komplexe gesellschaftliche Phänomene zu analysieren. Es gilt grundsätzlich, zunächst das Risiko eines jeden Projekts gegen seinen Nutzen abzuwägen – und sich gegebenenfalls auch dagegen zu entscheiden. Das betonen Forscher*innen von Microsoft Research in einem „Update on responsible AI research“.
Um die KI-gestützte Modellierung menschlichen Verhaltens verantwortungsvoll voranzubringen, haben sie jetzt fünf Empfehlungen für die Praxis veröffentlicht:
-
- Bei der Entwicklung von Projekten muss sichergestellt werden, dass sie von transparenten und partizipativen Prozessen begleitet werden, die auf wissenschaftlichen Theorien und ethischen Überlegungen beruhen.
- Daten, kontextbezogene Informationen, Berechnungsmethoden und Messergebnisse müssen mit diesen wissenschaftlichen Theorien integriert werden.
- Bei der Entwicklung sollten theoriegestützte Analyse-Modelle genutzt werden und die zugrunde liegenden Annahmen und die Richtigkeit der Daten dokumentiert und begründet sowie die jeweiligen algorithmischen Einflüsse reflektiert werden.
- Qualitätskriterien und Datensätze, die die Validierung konkurrierender Messergebnisse ermöglichen, müssen entwickelt und begründet werden.
- Reflektion möglicher negativer Folgen von Analyse-Ergebnissen und Beschreibung von Strategien zur Schadensbegrenzung.
Faire, transparente, nachvollziehbare und datenschutzkonforme Analyseverfahren sollten sozialtheoretische Erkenntnisse einbeziehen. Für eine verlässliche und damit vertrauenswürdige Analyse müssen die Annahmen, die einem Modell zugrunde liegen, genau dokumentiert und gut begründet werden. Es muss außerdem klar sein, wer darüber entscheidet, was genau analysiert werden soll und wie die Ergebnisse verwendet werden.
Um Risiken für Gerechtigkeit in KI-Systemen frühzeitig zu identifizieren, sollten verschiedene Messverfahren zunächst modelliert werden. Dadurch können KI-Praktiker*innen Unstimmigkeiten zwischen theoretischen Konzepten und deren Umsetzung in Code frühzeitig erkennen und vermeiden, dass ihre KI-Systeme gesellschaftliche Voreingenommenheit, Ungleichbehandlung oder Diskriminierung verstärken.
Durch repräsentative und integrative Datensätze unfaire KI-Systeme vermeiden
Auch Mängel in Datensätzen können zu unfairen KI-Systemen führen. Um diesem Risiko vorzubeugen, müssen KI-Praktiker*innen verstehen, wie ihre Systeme bestimmte Faktoren wie Alter, Ethnie, Geschlecht oder sozioökonomischen Status bewerten. Damit die Datensätze repräsentativ und integrativ erzeugt werden, muss die Datenerhebung in verschiedenen gesellschaftlichen Gruppen, etwa bei Menschen mit Behinderungen, verbessert werden.
Herkömmliche KI-Systeme sind oft nicht inklusiv. So funktionieren beispielsweise Spracherkennungssysteme nicht für ‚untypische‘ Aussprache und Eingabegeräte sind für Menschen mit eingeschränkter Mobilität nicht zugänglich. Auf dem Weg zu einer inklusiven KI haben die Forschenden von Microsoft Research Leitlinien für die Gestaltung einer zugänglichen Online-Infrastruktur für die Erhebung von Daten von Menschen mit Behinderungen entworfen, die diejenigen, die Daten beitragen, respektieren, schützen und motivieren.
Microsoft hat sich schon 2018 sechs Prinzipien für einen ethischen Einsatz von KI entschieden. Über deren Implementierung wacht ein unternehmensübergreifender ‚AETHER-Ausschuss‘ (AI and Ethics in Engineering and Research). Im Rahmen unseres Engagements für eine verantwortungsvolle KI arbeiten Forschende bei Microsoft an Methoden, die den Entwickler*innen von KI-Systemen helfen sollen, ethische Prinzipien in verantwortungsvolles Handeln zu übersetzen.
Ein Beitrag von Thomas Langkabel
National Technology Officer bei Microsoft Deutschland