Microsoft poprvé vydává Responsible AI Transparency Report

Responsible AI Transparency Report 2024

Následující text je předmluvou k prvnímu vydání naší výroční zprávy o transparentnosti odpovědné umělé inteligence. CELÁ ZPRÁVA je k dispozici na tomto odkazu.

Jsme přesvědčeni, že máme povinnost podělit se s veřejností o své odpovědné postupy v oblasti umělé inteligence, a tato zpráva nám umožňuje zaznamenat a sdílet naše vyzrálé postupy, reflektovat to, co jsme se naučili, stanovit naše cíle, nést odpovědnost a získat důvěru veřejnosti. 

V roce 2016 nás náš předseda představenstva a generální ředitel Satya Nadella jasně nasměroval k zásadovému a na člověka zaměřeného přístupu k investicím do umělé inteligence (AI). Od té doby usilovně pracujeme na vytváření produktů, které jsou v souladu s našimi hodnotami. Při navrhování, vytváření a představování produktů AI zůstává naším základem šest hodnot – transparentnost, odpovědnost, spravedlnost, inkluzivita, spolehlivost a bezpečnost, ochrana soukromí a zabezpečení – kterými se řídíme každý den.

Abychom posunuli naše postupy v oblasti transparentnosti, zavázali jsme se v červenci 2023 zveřejňovat výroční zprávu o našem programu odpovědné umělé inteligence a učinili tak krok, který přesahuje rámec dobrovolných závazků Bílého domu, na nichž jsme se dohodli s dalšími předními společnostmi v oblasti umělé inteligence. Toto je naše první zpráva, kterou tento závazek plníme, a jsme rádi, že můžeme zprávu zveřejnit na základě našeho prvního roku, kdy jsme tvůrcům, neziskovým organizacím, vládám a podnikům po celém světě přinášeli produkty a zkušenosti s generativní AI.

Jako společnost, která stojí v čele výzkumu a technologií umělé inteligence, se zavazujeme, že budeme sdílet naše postupy s veřejností tak, jak se budou vyvíjet. Tato zpráva nám umožňuje podělit se o naše dozrávající postupy, zamyslet se nad tím, co jsme se naučili, zmapovat naše cíle, nést odpovědnost a získat důvěru veřejnosti. Inovace v oblasti odpovědné umělé inteligence provádíme již osm let a s tím, jak se náš program vyvíjí, se učíme z minulosti, abychom se mohli neustále zlepšovat. Bereme velmi vážně svou odpovědnost nejen za zajištění vlastních znalostí, ale také za přispění k rostoucímu korpusu veřejných znalostí, za rozšíření přístupu ke zdrojům a za podporu transparentnosti v oblasti AI napříč veřejným, soukromým a neziskovým sektorem.

V této první výroční zprávě se dozvíte, jak vytváříme aplikace využívající generativní umělou inteligenci, jak rozhodujeme a dohlížíme na jejich nasazení, jak podporujeme naše zákazníky při vytváření jejich vlastních generativních aplikací a jak se učíme, vyvíjíme a rosteme jako zodpovědná AI komunita. Nejprve poskytujeme vhled do našeho vývojového procesu a zkoumáme, jak mapujeme, měříme a řídíme rizika generativní AI. Dále nabízíme případové studie, které ilustrují, jak uplatňujeme naše zásady a procesy při vydávání generativní AI. Sdílíme také podrobnosti o tom, jak posilujeme postavení našich zákazníků při odpovědném vytváření jejich vlastních AI aplikací. Nakonec zdůrazňujeme, jak růst naší odpovědné AI komunity, naše úsilí o demokratizaci přínosů AI a naše práce na usnadnění výzkumu AI prospívají celé společnosti.

Zodpovědná umělá inteligence nemá žádnou cílovou rovinku. A přestože tato zpráva neobsahuje všechny odpovědi, jsme odhodláni sdílet naše poznatky včas a periodicky a zapojit se do rozsáhlého dialogu o odpovědných postupech v oblasti AI. Vyzýváme veřejnost, soukromé organizace, neziskové organizace a řídící orgány, aby tuto první zprávu o transparentnosti využily k urychlení neuvěřitelného rozmachu odpovědné AI, který již pozorujeme po celém světě.

Kliknutím sem si můžete přečíst celou zprávu.

Tags: , , , , , ,

Related Posts