5 Empfehlungen für verantwortungsvolle KI unter Berücksichtigung menschlichen Verhaltens

Der Einsatz von künstlicher Intelligenz (KI) bietet enorme Chancen für Wirtschaft, Gesellschaft und jeden einzelnen Menschen. Gleichzeitig birgt die Technologie auch Risiken und berührt grundlegende Menschenrechte. Forscher*innen von Microsoft Research weisen daher in einem „Update on responsible AI research“ darauf hin, wachsam und verantwortungsvoll beim Einsatz von KI zu sein.

Menschliches Verhalten und Algorithmen beeinflussen sich gegenseitig. Sobald wir KI-gestützte Modelle zur Analyse menschlichen Verhaltens entwickeln, nehmen wir gleichzeitig Einfluss auf die Gestaltung der Gesellschaft. Bestehende Methoden zur Analyse sozialer Phänomene sind diesem „Rückkopplungsmechanismus“ aber möglicherweise nicht gewachsen. Deshalb gilt es besonders wachsam zu sein, wenn künstliche Intelligenz zum Einsatz kommt, um Muster im menschlichen Verhalten und komplexe gesellschaftliche Phänomene zu analysieren. Es gilt grundsätzlich, zunächst das Risiko eines jeden Projekts gegen seinen Nutzen abzuwägen – und sich gegebenenfalls auch dagegen zu entscheiden. Das betonen Forscher*innen von Microsoft Research in einem „Update on responsible AI research“.

Um die KI-gestützte Modellierung menschlichen Verhaltens verantwortungsvoll voranzubringen, haben sie jetzt fünf Empfehlungen für die Praxis veröffentlicht:

    1. Bei der Entwicklung von Projekten muss sichergestellt werden, dass sie von transparenten und partizipativen Prozessen begleitet werden, die auf wissenschaftlichen Theorien und ethischen Überlegungen beruhen.
    2. Daten, kontextbezogene Informationen, Berechnungsmethoden und Messergebnisse müssen mit diesen wissenschaftlichen Theorien integriert werden.
    3. Bei der Entwicklung sollten theoriegestützte Analyse-Modelle genutzt werden und die zugrunde liegenden Annahmen und die Richtigkeit der Daten dokumentiert und begründet sowie die jeweiligen algorithmischen Einflüsse reflektiert werden.
    4. Qualitätskriterien und Datensätze, die die Validierung konkurrierender Messergebnisse ermöglichen, müssen entwickelt und begründet werden.
    5. Reflektion möglicher negativer Folgen von Analyse-Ergebnissen und Beschreibung von Strategien zur Schadensbegrenzung.

Faire, transparente, nachvollziehbare und datenschutzkonforme Analyseverfahren sollten sozialtheoretische Erkenntnisse einbeziehen. Für eine verlässliche und damit vertrauenswürdige Analyse müssen die Annahmen, die einem Modell zugrunde liegen, genau dokumentiert und gut begründet werden. Es muss außerdem klar sein, wer darüber entscheidet, was genau analysiert werden soll und wie die Ergebnisse verwendet werden.

Um Risiken für Gerechtigkeit in KI-Systemen frühzeitig zu identifizieren, sollten verschiedene Messverfahren zunächst modelliert werden. Dadurch können KI-Praktiker*innen Unstimmigkeiten zwischen theoretischen Konzepten und deren Umsetzung in Code frühzeitig erkennen und vermeiden, dass ihre KI-Systeme gesellschaftliche Voreingenommenheit, Ungleichbehandlung oder Diskriminierung verstärken.

Durch repräsentative und integrative Datensätze unfaire KI-Systeme vermeiden

Auch Mängel in Datensätzen können zu unfairen KI-Systemen führen. Um diesem Risiko vorzubeugen, müssen KI-Praktiker*innen verstehen, wie ihre Systeme bestimmte Faktoren wie Alter, Ethnie, Geschlecht oder sozioökonomischen Status bewerten. Damit die Datensätze repräsentativ und integrativ erzeugt werden, muss die Datenerhebung in verschiedenen gesellschaftlichen Gruppen, etwa bei Menschen mit Behinderungen, verbessert werden.

Herkömmliche KI-Systeme sind oft nicht inklusiv. So funktionieren beispielsweise Spracherkennungssysteme nicht für ‚untypische‘ Aussprache und Eingabegeräte sind für Menschen mit eingeschränkter Mobilität nicht zugänglich. Auf dem Weg zu einer inklusiven KI haben die Forschenden von Microsoft Research Leitlinien für die Gestaltung einer zugänglichen Online-Infrastruktur für die Erhebung von Daten von Menschen mit Behinderungen entworfen, die diejenigen, die Daten beitragen, respektieren, schützen und motivieren.

Microsoft hat sich schon 2018 sechs Prinzipien für einen ethischen Einsatz von KI entschieden. Über deren Implementierung wacht ein unternehmensübergreifender ‚AETHER-Ausschuss‘ (AI and Ethics in Engineering and Research). Im Rahmen unseres Engagements für eine verantwortungsvolle KI arbeiten Forschende bei Microsoft an Methoden, die den Entwickler*innen von KI-Systemen helfen sollen, ethische Prinzipien in verantwortungsvolles Handeln zu übersetzen.


Ein Beitrag von Thomas Langkabel
National Technology Officer bei Microsoft Deutschland

Thomas Langkabel

Tags: , , ,

Weitere Infos zu diesem Thema

25. März 2022
KI als Führungsaufgabe: Neuer Lernpfad in der AI Business School

Künstliche Intelligenz spielt in immer mehr Bereichen von Arbeit und Alltag eine Rolle. Sie führt zu veränderten Geschäftsmodellen und beeinflusst die Art und Weise, wie wir miteinander interagieren. Die AI Business School unterstützt Führungskräfte dabei, diesen Wandel aktiv zu gestalten und zu begleiten. Mit einem neuen Lernpfad zeigt sie Interessierten auf, wie die Entwicklung einer innovativen Organisation im digitalen Zeitalter gelingt.

15. Dezember 2021
Richtlinien und Tools für verantwortungsvolle KI

Künstliche Intelligenz (KI) wird immer mehr zu einem festen Bestandteil unseres täglichen Lebens. Häufig ist gar nicht unmittelbar erkennbar, dass in vielen Anwendungen bereits trainierte oder lernende Algorithmen zum Einsatz kommen. Je anspruchsvoller die Aufgaben von KI werden, desto komplexer werden auch die Algorithmen dahinter. Für das Vertrauen in digitale Technologien ist es aber notwendig, dass Algorithmen nachvollziehbar bleiben. Die zusammen mit der Boston Consulting Group (BCG) entwickelten Richtlinien für verantwortungsvolle KI ergänzen unsere Ressourcen und -Tools für Unternehmen sowie das im Juli dieses Jahres veröffentlichte Toolkit für Human-AI eXperience (HAX).

9. Juni 2021
KI gestalten mit: Thomas Langkabel

Die Beschäftigung mit künstlicher Intelligenz bringt uns auch dazu, uns mit unseren Werten auseinanderzusetzen. Thomas Langkabel spricht mit uns in der neuen Folge „KI gestalten mit“ über den verantwortungsvollen KI-Einsatz.