Responsible AI Transparency Report: Für mehr Transparenz bei unseren Maßnahmen für verantwortungsvolle KI  

Transparency Report

Im Folgenden finden Sie das Vorwort zur ersten Ausgabe unseres nun jährlich erscheinenden Responsible AI Transparency Report. Wir sehen uns dazu verpflichtet, unseren Umgang mit verantwortungsvoller KI mit der Öffentlichkeit zu teilen. Dieser Bericht ermöglicht es uns, unsere Fortschritte aufzuzeichnen und weiterzugeben. Darin reflektieren wir über das, was wir gelernt haben, legen unsere Ziele fest und ziehen uns selbst zur Verantwortung. Der vollständige Bericht ist unter diesem Link auf englisch verfügbar.  

Bereits 2016 hat unser CEO Satya Nadella den Kurs des Unternehmens vorgezeichnet: Bei den Investitionen in künstliche Intelligenz (KI) verfolgen wir einen streng prinzipien- und menschenzentrierten Ansatz. Seitdem arbeiten wir an Produkten und Services, die mit diesen Werten übereinstimmen. Bei der Entwicklung, Produktion und Veröffentlichung von KI-Produkten lassen wir uns von sechs Werten leiten: Transparenz, Verantwortung, Fairness, Inklusion, Zuverlässigkeit und Sicherheit sowie Datenschutz.   

Um Transparenz über unsere konkreten Maßnahmen herzustellen, haben wir uns im Juli 2023 verpflichtet, einen jährlichen Bericht über unser Programm für verantwortungsvolle KI  zu veröffentlichen. Damit gehen wir freiwillig über die Verpflichtungen der US-Regierung hinaus, denen wir mit anderen führende KI-Unternehmen zugestimmt haben. Wir legen nun den ersten Bericht vor, mit dem wir dieser Verpflichtung nachkommen. Er passt perfekt in eine Zeit, in der erstmals generative KI-Produkte für Kreative, gemeinnützige Organisationen, Regierungen und Unternehmen auf der ganzen Welt verfügbar sind.  

Als Unternehmen, das in der KI-Forschung und -Technologie an vorderster Front steht, wollen wir unsere Praktiken mit der Öffentlichkeit teilen. Der Responsible AI Transparency Report ermöglicht uns diese Transparenz, aber gibt uns auch Gelegenheit, selbst über unsere KI-Praxis und Erfahrungen zu reflektieren, neue Ziele zu setzen und uns an unsere eigene Verantwortung zu erinnern. Das alles hilft uns, Vertrauen in generative KI aufzubauen. Seit acht Jahren sind wir auf dem Gebiet verantwortungsvoller KI tätig, und während wir unser Programm weiterentwickeln, lernen wir aus der Vergangenheit, um besser zu werden. Wir nehmen dabei unsere Verantwortung sehr ernst, nicht nur unser eigenes Wissen zu vergrößern, sondern auch zum wachsenden öffentlichen Wissen beizutragen, den Zugang zu Ressourcen zu erweitern und die Transparenz im Bereich der KI im öffentlichen, privaten und gemeinnützigen Sektor zu fördern.  

In diesem ersten Jahresbericht informieren wir die Öffentlichkeit deshalb darüber, wie wir Anwendungen mit generativer KI entwickeln, und wie unsere Kunden diese Anwendungen in ihre Prozesse zur Entscheidungsfindung oder sogar in die Entwicklung eigener Apps integrieren können. Wir schreiben auch darüber, wie wir die Risiken generativer KI erfassen, messen und managen. Anschließend zeigen wir in Use Cases, wie wir unsere Richtlinien und Prozesse auf generative KI anwenden, und erläutern, wie wir unsere Kunden bei der verantwortungsvollen Entwicklung ihrer eigenen KI-Anwendungen unterstützen. Schließlich zeigen wir mit dem Report, wie das Wachstum unserer Community rund um Responsible AI dazu beiträgt, KI zu demokratisieren, und wie unsere Arbeit zur Erleichterung von KI-Forschung der Gesellschaft insgesamt zugutekommt.  

Es gibt keine Ziellinie für verantwortungsvolle KI. Auch wenn dieser Bericht nicht alle Antworten enthält, haben wir uns verpflichtet, unsere Erkenntnisse frühzeitig und regelmäßig zu teilen und einen intensiven Dialog über verantwortungsvolle KI-Praktiken zu führen. Wir laden die Öffentlichkeit, private und gemeinnützige Organisationen sowie Behörden ein, diesen ersten Transparenzbericht zu nutzen, um weltweite Dynamiken im Bereich der verantwortungsvollen KI zu fördern. 

Den englischsprachigen Originalbeitrag von Brad Smith und Natasha Crampton finden Sie hier 


Ein Beitrag von Brad Smith
Vice Chair & President

und Natasha Crampton
Chief Responsible AI Officer 

Natasha Crampton

Tags: , , , ,

Weitere Infos zu diesem Thema

2. November 2023
Eine neue Welt der Sicherheit: Microsofts Secure Future Initiative

In den letzten Monaten sind wir bei Microsoft zu dem Schluss gekommen, dass die zunehmende Geschwindigkeit, das Ausmaß und die Raffinesse von Cyberangriffen eine neue Antwort erfordern. Aus diesem Grund starten wir heute unternehmensweit eine neue Initiative, um die nächste Generation des Cybersicherheitsschutzes voranzutreiben – wir nennen sie Secure Future Initiative (SFI).