Künstliche Intelligenz und Ethik: Warum KI ethische Prinzipien braucht

Ethische Prinzipien bei der Entwicklung und dem Einsatz von Künstlicher Intelligenz (KI) sind die Voraussetzung dafür, dass die Menschen der Technologie vertrauen. Wenn KI uns in immer mehr Bereichen unseres Lebens begegnet, müssen wir die Voraussetzungen für einen verantwortungsvollen Einsatz schaffen, denn nur so kann KI Akzeptanz gewinnen.   

Bei Microsoft haben wir sechs Grundsätze für KI und Ethik aufgestellt. Unser Präsident Brad Smith hat in seinem Buch Future Computed“ beschrieben, wie wir unsere ethischen Prinzipien für KI definieren und wie sie in unsere Arbeit an Künstlicher Intelligenz einfließen sollen, um verantwortungsvoll mit der Technologie umzugehen. Diese stellen wir hier vor.

DISKRIMINIERUNGSFREIHEIT:
Wir setzen uns dafür ein, dass Künstliche Intelligenz alle Menschen fair behandelt

Künstliche Intelligenz wird künftig mit darüber entscheiden, welcher Bewerber den Job bekommt – und welcher Antragsteller den Kredit. Doch so logisch und korrekt KI-Analysen auf den ersten Blick scheinen: sie sind es nicht. Eine KI mit Daten zu trainieren, ist kein neutraler, wertfreier Prozess. KI kann nicht reflektieren, was sie gerade tut. Sie hat keine Moral. Künstliche Intelligenz kann nur Muster und Strukturen in Daten erkennen.

Wenn KI für die Bewerberauswahl Daten auswertet, wer in der Wirtschaft besonders erfolgreich ist, wird sie feststellen, dass es hauptsächlich weisse Männer in Vorstände geschafft haben – und Bewerbungen von Frauen oder Migranten vielleicht schlechter beurteilen. Oder Männern bevorzugt Kredite geben, weil sie gelernt hat, dass Männer im Schnitt höhere Einkommen haben. Die Datenbasis für das Training muss ausreichend breit und divers sein. Für Schlagzeilen sorgte eine KI, die erkennt, was auf Fotos zu sehen ist und dunkelhäutige Menschen als Gorillas einstufte – weil sie fast nur mit Fotos von weißen Menschen trainiert worden war. Das sind „unconscious bias“, also „unbewusste Verzerrungen“. Wir bei Microsoft arbeiten daran, dass es keine Diskriminierung durch Künstliche Intelligenz gibt und KI jeden Menschen fair behandelt. Entwickler müssen dafür sensibilisiert werden, wie (menschliche) Vorurteile in KI Eingang finden. Und Entwicklerteams sollten selbst die Vielfalt der Welt widerspiegeln, in der wir leben.

ZUVERLÄSSIGKEIT:
Wir arbeiten daran, dass Künstliche Intelligenz zuverlässig und sicher ist

Künstliche Intelligenz wird an vielen Stellen Einzug in unser Leben halten. Etliche Funktionen werden unser Leben angenehmer machen, wenn KI unsere Termine nach unseren Wünschen organisiert, uns Filme oder Veranstaltungen empfiehlt und nach dem Konzert direkt noch einen Tisch im Lieblingsrestaurant reserviert. Doch sie wird uns auch in Situationen begleiten, in denen unser Leben von ihr abhängt. KI-Systeme steuern selbstfahrende Autos. Sie können den  Gesundheitszustand von Patienten permanent überwachen und frühzeitig den Arzt alarmieren, wenn sich kritische Veränderungen abzeichnen. Und natürlich erwarten wir von der KI im Smart Home, dass sie keinen Einbrechern die Tür öffnet.

An der Rolle, die KI in unserem Leben haben wird, zeigt sich: KI-basierte Systeme müssen zuverlässig und sicher sein, und sie müssen kontinuierlich betrieben werden können. Nicht nur unter Normalbedingungen, sondern auch bei unerwarteten Umständen – und sogar dann, wenn sie angegriffen werden. Die Sicherheit von Künstlicher Intelligenz ist entscheidend für ihre Akzeptanz. Wir arbeiten daran, dass KI sicher und zuverlässig wird, und setzen strenge Tests während der Entwicklung und Implementierung ein.

SCHUTZ DER PRIVATSPHÄRE:
Wir wollen Künstliche Intelligenz, die Datenschutz und Datensicherheit gewährleistet

Egal, ob sie unsere Arbeit erleichtern, unsere Gesundheit verbessern oder uns nach der Party mit den Freunden nach Hause fahren: Alle KI-Systeme haben gemeinsam, dass sie eine große Menge von Daten für das Training benötigen. Und manchmal, etwa im Gesundheitsbereich, sind das sogar Daten aus unserer Intimsphäre. Hinzu kommt, dass KI in immer mehr Lebensbereiche vordringt. Wir begegnen ihr in unserer Wohnung, im Auto, auf dem Arbeitsplatz oder auf dem Handy, das wir permanent bei uns tragen.

KI bietet gewaltige Potenziale, das Leben der Menschen zu verbessern. Doch wir werden sie nur nutzen können, wenn wir uns um den Datenschutz bei Künstlicher Intelligenz kümmern. Niemand wird Daten über sich preisgeben, wenn er sich nicht sicher sein kann, dass seine Daten sicher sind. Und ohne diese Daten kann KI keine fundierten Entscheidungen treffen. Für das Vertrauen der Verbraucher brauchen wir Kontrollmechanismen, mit denen diese selbst entscheiden können, wie ihre Daten verwendet werden. KI-Systeme dürfen personenbezogene Daten nur in Übereinstimmung mit geltenden Datenschutzstandards verwenden und müssen die Privatsphäre respektieren.

BARRIEREFREIHEIT:
Wir stehen für Künstliche Intelligenz, die allen Menschen zu Gute kommt

Für die meisten von uns ist es selbstverständlich, hören oder sehen zu können. Für viele von uns aber nicht: Weltweit leben rund eine Milliarde Menschen mit einer Behinderung, in Deutschland fast acht Millionen Schwerbehinderte. Damit Künstliche Intelligenz allen Menschen zugutekommt, muss sie auch die unterschiedlichsten menschlichen Bedürfnisse und Erfahrungen einbeziehen.

Das bedeutet für uns: KI-Systeme sollten grundsätzlich so konzipiert werden, dass sie den Kontext, die Bedürfnisse und die Erwartungen aller Menschen verstehen, die sie nutzen. Auf Barrierefreiheit und Inklusion ausgerichtete Designprinzipien helfen Entwicklern, potenzielle Barrieren zu erkennen. Entwicklerteams sollten offen und divers sein – und behinderte Teammitglieder haben. Die gute Nachricht: Gerade für Behinderte kann KI echte Verbesserungen schaffen. Etwa die Microsoft-App #SeeingAI, die Blinden dabei hilft, sich in ihrer Umgebung zurechtzufinden. Sie können damit zum Beispiel Texte fotografieren, die KI liest sie ihnen dann vor. Oder erkennt Gegenstände und sagt ihnen, was um sie herum ist. Hörgeschädigten hilft eine Funktion, die gesprochene Worte in Echtzeit in geschriebenen Text verwandelt.

TRANSPARENZ:
Künstliche Intelligenz muss uns ihre Entscheidungen erklären

Unser Leben wird von Künstlicher Intelligenz zunehmend beeinflusst. Maschinelles Lernen ist aber weitgehend noch ein Mysterium. Beim Training füttern wir KI-Systeme mit Daten, doch welche Schlüsse die KI daraus zieht, nach welcher Logik und welchen Kriterien sie dann entscheidet, ist für Menschen meist undurchschaubar. Hier ist noch viel Forschung nötig um zu verstehen, wie maschinelle Lernmodelle funktionieren. Und neue Methoden zu entwickeln, die für mehr aussagekräftige Transparenz sorgen.

Auch bei Microsoft arbeiten wir daran, KI beizubringen, uns ihre Ergebnisse zu erklären. Microsoft-Präsident Brad Smith betont, dass eine Ethik der KI den Faktor Mensch in den Mittelpunkt stellen muss. Es muss verhindert werden, dass KI anonym Entscheidungen über uns trifft, die aus einer „Black Box“ kommen und nicht überprüfbar sind. Wir können nicht einfach das Ergebnis nehmen und ihm blind folgen. Daraus folgt: Ergebnisse von KI-Analysen müssen so aufbereitet werden, dass Menschen sie nachvollziehen und bewerten können. Eine ethische KI muss uns in die Lage versetzen, mögliche Fehlentscheidungen oder Vorurteile zu erkennen.

VERANTWORTLICHKEIT:
Künstliche Intelligenz darf nur den Einfluss haben, den wir ihr zugestehen

Viele Menschen befürchten, dass Künstliche Intelligenz die Kontrolle über unser Leben übernimmt. Es ist an uns, dafür zu sorgen, dass KI so arbeitet, wie WIR es wollen – und nicht wir, wie KI es will. „Wir sollten nicht überlegen, was Computer tun könnten, sondern was sie tun sollten“, hat Microsoft-Präsident Brad Smith diese Haltung formuliert. In letzter Instanz sind bei KI-Systemen – wie bei anderen Technologien übrigens auch – die Menschen verantwortlich, die sie entwickelt und eingesetzt haben. Das gilt insbesondere dann, wenn durch KI Rechte von Menschen verletzt wurden. Hier muss klar geregelt sein, wer dann die Verantwortung trägt.

Doch ein ethischer Umgang mit KI beginnt noch viel früher. Wir werden der Verantwortung am besten gerecht, wenn wir verhindern können, dass es überhaupt zu Rechtsverletzungen kommt. Bei der Schaffung entsprechender Normen können wir an Erfahrungen aus dem Gesundheitswesen oder dem Datenschutz anknüpfen. Alle, die KI-Systeme entwickeln und einsetzen, sollten solche Verfahren berücksichtigen und regelmäßig überprüfen, ob sie auch eingehalten werden und noch wirksam sind.

Related Posts

Microsoft verändert mit Copilot for Finance das moderne Finanzwesen

Microsoft kündigt heute die öffentliche Testversion von Copilot for Finance an, eine neue Erweiterung für Microsoft 365. Copilot for Finance wird Finanzabteilungen bei Routineaufgaben unterstützen und Finanzexperten so zu mehr Produktivität und Zeit für strategische Beratung verhelfen. Copilot for Finance schliesst sich den bereits verfügbaren branchenspezifischen Erweiterungen Copilot for Sales und Copilot for Service an.

Introducing Microsoft Copilot for Finance – the newest Copilot in Microsoft 365 designed to transform modern finance

Today we’re announcing the public preview of Microsoft Copilot for Finance, the newest role-based extension of Microsoft Copilot for Microsoft 365 designed to revolutionize how finance teams approach their daily work. Copilot for Finance joins Copilot for Sales and Copilot for Service, now generally available, to provide AI-powered, role-based workflow automation, recommendations, and guided actions in the flow of work. 

Microsoft’s AI Access Principles: Our commitments to promote innovation and competition in the new AI economy

As we enter a new era based on artificial intelligence, we believe this is the best time to articulate principles that will govern how we will operate our AI datacenter infrastructure and other important AI assets around the world. We are announcing and publishing these principles – our “AI Access Principles” – today at the Mobile World Congress in Barcelona in part to address Microsoft’s growing role and responsibility as an AI innovator and a market leader.

LUKS führt automatisierte Dienstplanung in Zusammenarbeit mit Polypoint und Microsoft Schweiz ein

In a pioneering move, Luzerner Kantonsspital (LUKS), one of the first hospitals in Switzerland, is implementing an AI-driven automated shift scheduling system. This initiative aims to significantly reduce planning efforts, allocate more time to core tasks, and enhance employee satisfaction, in collaboration with Polypoint and Microsoft Switzerland. The automated scheduling system is set to launch at LUKS in the first half of 2024 after successful pilot tests.