Zum Hauptinhalt springen
Zu Hauptinhalt springen
News Center

KI & Inklusion: Technologien mit und für Menschen mit Behinderung entwickeln


Künstliche Intelligenz (KI) kann Inklusion, also die Teilhabe von Menschen mit Behinderungen oder schweren Erkrankungen im Alltag, sehr erleichtern. Damit Menschen nicht ausgeschlossen werden, sind für die unterschiedlichen Modelle relevante Daten in ausreichender Menge erforderlich. Genau da hakt es, und deshalb engagiert sich Microsoft weltweit in verschiedenen Projekten.

Für Menschen mit Sehbehinderung sind Routinen enorm wichtig, damit sie sich im Alltag zurechtfinden: Der Schlüssel, die Brieftasche, der Langstock zum Tasten – bestenfalls befindet sich immer alles am selben Ort. Aber viele Dinge lassen sich nicht so einfach organisieren: Manchmal fällt etwas runter, ein Kleidungsstück wird vertauscht oder ein Gegenstand steht einfach nicht mehr da, wo er normalerweise hingehört.

Seeing AI hilft beim Sehen

In solchen Situationen können Technologien wie Seeing AI helfen, eine Smartphone-App, die Menschen mit Sehbehinderung das virtuelle Sehen ermöglicht. Die App beschreibt unter anderem Dinge, die sich im Blickfeld der Smartphone-Kamera befinden, so dass diese identifizierbar werden.

Saqib Shaikh ist selbst blind und leitet als Ingenieur das Microsoft-Team, das Seeing AI entwickelt hat. Jetzt arbeitet er mit seinem Team daran, Objekte nicht nur zu erkennen, sondern sie auch bestimmten Personen zuzuordnen. Um das zu schaffen, benötigt der Algorithmus spezifische Daten in ausreichender Menge, aber das ist gar nicht so einfach.

Ein Mann mit kurzen Haaren und im Hemd

Untrainierte Algorithmen können Schaden anrichten

Unsere Forschungsabteilung Microsoft Research hat jüngst die Defizite von Algorithmen für Menschen mit Behinderungen aufgezeigt. Im günstigsten Fall funktionieren sie nicht optimal, im schlimmsten Fall richten sie sogar Schäden an. Zum Beispiel, wenn Trainingsprogramme für selbstfahrende Autos oder nicht in der Lage sind, an der Körperhaltung bestimmte Einschränkungen auszumachen. Beim Recruiting unterstützende Programme könnten zudem falsche Schlüsse aus Fotos von Bewerber*innen ziehen, wenn zum Beispiel bestimmte körperliche Behinderungen das Aussehen prägen. Nicht in jedem Fall sind die Algorithmen Ursache der Probleme, sondern zum Beispiel auch die zu geringe Menge an entsprechenden Trainings- und Testdaten.

Die City, University of London, an der sich Microsoft mit Stipendien für Barrierefreiheit engagiert, hat das Forschungsprojekt Object Recognition for Blind Image Training (ORBIT) ins Leben gerufen. Das Projekt soll dabei helfen, die Menge an passenden Daten zu vergrößern. Dabei wird nicht nur mit Bildern gearbeitet, die von sehenden Menschen geliefert werden, sondern auch mit Videos, die von blinden oder Menschen mit Sehbehinderungen eingereicht werden und so speziell ihre Informationsbedürfnisse abbilden. Aus diesem Material wird ein öffentlich verfügbarer Datensatz erstellt. Die Daten werden verwendet, um neue Algorithmen zur Erkennung und Lokalisierung von persönlichen Gegenständen zu trainieren und zu testen.

Ohne Daten gebe es kein maschinelles Lernen, bringt Simone Stumpf in einem Microsoft-Blogpost auf den Punkt.

Team Gleason kämpft für offene Daten

Steve Gleason hat in den frühen 2000er Jahren als Profi American Football gespielt, zuletzt bei den New Orleans Saints. 2011 gab Gleason bekannt, an ALS erkrankt zu sein, der Amyotrophen Lateralsklerose. Seitdem engagiert sich das Team Gleason gegen diese tödlich verlaufende, degenerative Muskelkrankheit. Das Team Gleason hat jetzt eine Partnerschaft mit Microsoft für das Project Insight vereinbart.

Im Rahmen des Projekts erstellt das Team einen offenen Datensatz mit Gesichtsbildern von Menschen, die an ALS erkrankt sind und sich deshalb von den Bildern gesunder Menschen unterscheiden. Das ist dann sinnvoll, wenn mit Hilfe von Technologien wie eben KI die Mimik und Stimmungen erkannt werden sollen. Auch dieser Datensatz dient dem Ziel, Algorithmen zu schulen und zu testen, um Menschen mit Behinderungen und schweren Erkrankungen besser integrieren zu können.

Mit dem Projekt VizWiz an mehr Daten kommen

Danna Gurari ist Assistenzprofessorin an der University of Texas in Austin. Sie arbeitet dort mit Datensätzen von VizWiz.org. die Zehntausende von Fotos und Fragen enthalten. Diese Daten wurden von Menschen mit Sehbehinderung an eine spezielle App geschickt. Es ist eine sehr bunte Mischung von Fragen: „Wie lange ist die Milch haltbar?“, „Was steht auf dem Hemd?“, „Sieht es draußen nach Regen aus?“ oder „Sind meine Fingerspitzen blau?“ – Alltagsfragen eben. Gurari nutzt diese Fragen, um Algorithmen für Computer Vision, also das maschinelle Sehen, zu verbessern.

Viele Antworten auf diese Fragen erfordern das Lesen von Texten, da reicht also eine reine Bilderkennung nicht aus. Das ist der Grund, warum sich Danna Gurari für einen integrierten Ansatz von Bild- und Texterkennung ausspricht. Zudem geht es darum, so die Assistenzprofessorin, KI auch für das Erkennen von Bildern schlechterer Qualität sowie von Bildausschnitten zu trainieren, die scheinbar unwichtige Details abbilden.

Ein lächelnde Frau mit schwarzen Haaren

Es sei eben oft nicht offensichtlich, was für Menschen mit Behinderungen von Bedeutung ist, so Gurari. Mit ihrem Team hat Gurari zunächst den ursprünglichen VizWiz-Datensatz bereinigt, um ihn für das Training von Algorithmen für maschinelles Lernen nutzbar zu machen. In Zusammenarbeit mit Microsoft hat das Team dann einen neuen öffentlich verfügbaren Datensatz entwickelt, um Algorithmen zur Bildbeschriftung zu trainieren, zu validieren und zu testen.

Der Datensatz umfasst mittlerweile mehr als 39.000 Bilder, die von Teilnehmer*innen mit Sehbehinderungen aufgenommen wurden. Dazu kommen pro Bild fünf mögliche Bildunterschriften. Darüber hinaus arbeiten die Wissenschaftler*innen aus Austin an Algorithmen, die auf Anhieb erkennen, ob ein Bild zu verschwommen, verdeckt oder zu schlecht beleuchtet ist. Dann gibt die KI Hinweise, wie das Foto besser gelingen könnte.

Beispiele für die Bilderkennungs-KI

Microsoft war Anfang dieses Jahres auch Sponsor einer akademischen Challenge, bei der es darum ging, Algorithmen für Bildunterschriften im VizWiz-Datensatz zu verbessern. Das Ergebnis ist vielversprechend: Am Ende war der Algorithmus um ein Drittel besser als vorher.

In inklusiven Daten sind alle Menschen gleich

KI-Systeme modellieren ihre Welten auf der Grundlage von Daten. Menschen, die in diesen Daten nicht oder zu selten vorkommen, kommen auch in den Modellen nicht vor und werden so übersehen oder benachteiligt. Dieses Manko haben die Entwickler*innen von KI bei den Modellierungen von Geschlechtern oder ethnischer Herkunft bereits erkannt und sie arbeiten daran, solche Benachteiligungen zu verhindern.

Für Menschen mit Behinderungen oder schweren Erkrankungen gilt das aber noch nicht im gleichen Maße. Microsoft Research hat es sich zur Aufgabe gemacht, das zu ändern. In einem gemeinsamen Workshop mit dem AI Now Institute der Universität New York diskutierten Wissenschaftler*innen und Expert*innen für Inklusion sowie maschinelles Lernen, wie KI-Systeme es vermeiden können, Menschen mit Behinderungen als „Grenzfälle“ oder „Ausreißer“ zu behandeln.

Über diese Diskussion kamen die Teams schnell zu der Frage, was als „normal“ gilt und wer das entscheidet, wie Kate Crawford, Senior Principal Researcher bei Microsoft Research New York, zusammenfasst. Sie ist Mitgründerin der Gruppe Fairness, Accountability, Transparency and Ethics (FATE) bei Microsoft. Auch das ist am Ende eine Frage der Daten:

Legen diese Daten nahe, dass bestimmte Fähigkeiten oder Verhaltensweisen Standard und daher wünschenswert sind? Werden Menschen mit Behinderungen oder solche, die in irgendeiner Weise anders sind, bei einer möglichen Einstellung niedriger eingestuft, weil sie sich von den Daten im Trainingssatz unterscheiden? So speziell solche Fragen auch sein mögen: Für unseren Alltag sind die Antworten darauf sehr wichtig.

Zum Weiterlesen:

Ein Beitrag von Pina Meisel

Communications Manager AI & Innovation

Pina Meisel als Portrait-Bild

und Johanna Ronsdorf

Trainee Business Communications AI & Innovation / Data Applications & Infrastructure

Foto von Johanna Ronsdorf, Trainee Business Communications AI & Innovation / Data Applications & Infrastructure