Tekoälyratkaisut kehittyvät valtavalla nopeudella. Samalla, kun tekoälyn etuja ylistetään, niitä myös tarkastellaan kriittisesti ja jossain määrin myös pelätään. Tekoälyn mahdollisuuksien tuominen kaikkien ulottuville edellyttää, että tekoälyä kehitetään ja käytetään niin, että samalla rakennetaan ihmisten luottamusta tekoälyyn.
Microsoftin lähestymistapa perustuu yhtiön tekoälyperiaatteisiin, joiden tavoitteena on ennakoivasti laatia puitteita ja rajoitteita tekoälyjärjestelmille. Näin varmistetaan tekoälyyn liittyvien riskien ennakointi ja lieventäminen sekä hyötyjen maksimointi.
Muutaman viime vuoden aikana tekoälyn vastuullisen kehittämisen periaatteet ovat täsmentyneet, ja tällä hetkellä vallitsee täysi yksimielisyys siitä, että etusijalle pitää asettaa esimerkiksi avoimuus, oikeudenmukaisuus, tulosvastuullisuus, tietosuoja ja tietoturva. Näiden periaatteiden olemassaolo ei yksin riitä, vaan niitä on pyrittävä toteuttamaan käytännössä.
Microsoftin vastuullisen tekoälyohjelman perustana ovat:
- hallinnointirakenne edistyksen ja tulosvastuullisuuden mahdollistamiseksi
- säännöt vastuullisen tekoälyn vaatimusten standardoimiseksi
- työntekijöiden koulutus ja käytännöt, joilla varmistetaan asetettujen periaatteiden mukainen toiminta ja tekoälyjärjestelmien sosioteknisten vaikutusten syvällinen pohtiminen
- työkalut ja prosessit käytännön toteutuksia varten.
Hallinnointi perustana vaatimusten täyttämisessä
Vaikka vastuulliseen tekoälyyn liittyy paljon uutta ja tuntematonta, aihepiiriin läheisesti liittyviltä osa-alueilta voidaan oppia paljon. Microsoftin vastuullisen tekoälyn hallinnointimalli soveltaa niin kutsuttua hub-and-spoke-mallia (vrt. pyörän napa ja pinnat), jonka avulla Microsoft on onnistuneesti integroinut tietosuojan, tietoturvan ja saavutettavuuden tuotteisiinsa ja palveluihinsa.
“Hub” (eli “napa”) sisältää ensinnäkin Microsoftin Aether Committee -neuvoston, jonka työryhmät tarjoavat tieteellistä ja teknistä huippuosaamistaan Microsoftin vastuullisen tekoälyn periaatteiden soveltamiseen. Lisäksi hubiin sisältyvät Office of Responsible AI -osasto, joka määrittää Microsoftin käytäntö- ja hallintomallit vastuulliseen tekoälyyn, sekä Responsible AI Strategy in Engineering (RAISE) -ryhmä, joka auttaa yhtiön tuotekehitystiimejä toteuttamaan vastuullisen tekoälyn prosesseja eri järjestelmissä ja työkaluissa.
Nämä kolme ryhmää yhdessä määrittävät selkeät standardit vastuulliselle tekoälylle läpi organisaation, jotta “spokes” (eli “pinnat”) voivat edistää erilaisia hankkeita ja vastata niiden tuloksista.
“Pinnoja” edustaa vastuullisen tekoälyn edistäjien yhteisö (Responsible AI Champs). Microsoftin johto nimeää vastuullisen tekoälyn edistäjät tuotekehitykseen ja myyntiitiimeihin koko yhtiön laajuisesti. Edistäjien tehtävä on lisätä tietoisuutta Microsoftin vastuullisen tekoälyn lähestymistavasta sekä käytettävissä olevista työkaluista ja prosesseista. Lisäksi he tunnistavat haasteita, auttavat tiimejä arvioimaan eettisiä ja yhteiskunnallisia näkökohtia sekä edistävät vastuullista innovaatiokulttuuria omissa tiimeissään.
Sääntöjen kehittäminen Microsoftin periaatteiden mukaiseksi
Syksyllä 2019 Microsoft julkaisi sisäisesti ensimmäisen version vastuullisen tekoälyn standardistaan. Se ohjaa vastuullisen tekoälyn periaatteiden soveltamista Microsoftin yhtiökäytäntöjen mukaisesti. Standardin ensimmäisen version tavoite oli auttaa oppimisessa ja tunnustaa periaatteiden käytännön toteutuksen olevan vasta alussa.
Kymmenen tuotekehitysryhmän ja kahden asiakastiimin pilottihankkeessa Microsoft oppi, mikä toimii ja mikä ei. Samalla pilottitiimit huomasivat, kuinka tekoälyyn liittyvät huolet voivat ilmetä. Toisinaan tiimit myös turhautuivat standardissa esitettyjen näkökohtien avoimiin määritelmiin ja toivoivat konkreettisempia vaatimuksia ja kriteerejä. Monet halusivat käyttöönsä lisää työkaluja, mallinnuksia ja järjestelmiä sekä standardien integroimista läheisemmin olemassa olevien kehityskäytäntöjen kanssa.
Reilu vuosi ensimmäisen version julkistuksen jälkeen Microsoft tarkastelee vastuullisen tekoälyn standardin toista versiota työntekijöidensä kanssa. Tämä versio korostaa ihmiskeskeistä lähestymistapaa ja pohjaa vankasti tutkimukseen ja tuotekehitykseen. Se määrää, että tekoälyjärjestelmiä kehittävien tiimien on täytettävä periaatekohtaiset vaatimukset, jotka auttavat tuotekehitystiimejä ratkaisemaan ongelmia .
Jokaiselle vastuullisen tekoälyn standardin vaatimukselle Microsoft laatii erilaisia toteutustapoja, joihin tiimit voivat tukeutua. Toteutustavoissa on mukana työkaluja, malleja ja käytäntöjä, jotka joukkoistetaan sekä yhtiön sisältä että sen ulkopuolelta, ennen kuin ne viimeistellään lopulliseen muotoonsa. Tästä ennakoidaan koko yhtiön laajuista, monivuotista hanketta ja yhtä tärkeimmistä vastuullisen tekoälyn soveltamisen elementeistä kaikessa yhtiön toiminnassa. Palautteen kerääminen ja sen integrointi jatkuvat samalla, kun viimeistellään standardin toista versiota ja valmistellaan sen globaalia käyttöönottoa.
Rajanveto ja harmaat alueet
Koska vastuullisen tekoälyn kenttä muuttuu nopeasti ja saa uusia vivahteita, on mahdotonta tiivistää kaikkia monimutkaisia sosioteknisiä näkökohtia kaiken kattavaksi ja ennalta määritetyksi sääntöjoukoksi. Tämän seurauksena Microsoft on luonut prosessin, jonka avulla voidaan valvoa laaja-alaisia, merkittäviä tapauksia sekä esille tulevia ongelmia ja kysymyksiä. Tätä kutsutaan Microsoftin arkaluontoisten käyttötapausten prosessiksi. Se edellyttää, että arviointikriteerit täyttävät tekoälyn käyttötapaukset raportoidaan Office of Responsible AI -osastolle katselmoitavaksi. Tapaus otetaan yksityiskohtaisempaan käsittelyyn, jos siitä ei ole ennakkotapausta. Heinäkuusta 2019 lähtien käyttötapauskatselmointeja on tehty yli 200. Katselmointien määrä on lisääntynyt erityisesti maaliskuusta 2020 lähtien, kun yhä useammat Microsoftin tiimit ja asiakkaat ovat halunneet soveltaa dataa ja tekoälyteknologioita vastatakseen koronaviruspandemiaan.
Tämä arkaluontoisten käyttötapausten prosessi on auttanut Microsoftia navigoimaan harmailla alueilla, joita väistämättä tulee vastaan. Joissakin tapauksissa se on myös johtanut uusiin kieltoihin ja rajoitteisiin. Prosessin lopputuloksena Microsoft on esimerkiksi kieltäytynyt kehittämästä ja toteuttamasta tiettyjä tekoälysovelluksia, koska ei ole ollut varmaa, että niiden toteutus olisi onnistunut periaatteiden mukaisella tavalla. Yhtiön varatoimitusjohtaja Brad Smith on puhunut julkisesti tapauksesta, jossa erään kalifornialaisen poliisilaitoksen puettavilla kameroilla ja kojelautakameroilla oltiin toteutettu turhan ennenaikaisesti reaaliaikaista kasvojentunnistusta, ja Microsoft kieltäytyi siksi yhteistyöstä. Hallitsemattomassa ympäristössä tapahtuvan kasvojentunnistuksen teknisten haasteiden lisäksi Microsoftin arkaluontoisten käyttötarkoitusten prosessi auttoi luomaan näkemyksen siitä, että kasvojentunnistuksesta on käytävä yhteiskunnallista keskustelua ja sitä varten on laadittava lakeja.
Useiden muiden monimutkaisten tapausten myötä Microsoft on myös oppinut kolme keskeistä asiaa. Ensinnäkin käyttötapausten yksityiskohtien perusteella on voitu hahmottaa ja sanoittaa erilaisia riskiprofiileja. Esimerkiksi miten epäonnistuminen ja väärinkäytökset vaikuttaisivat eri sidosryhmiin sekä mitkä ovat teknologian valmiudet määrätyssä käyttötapauksessa. Toiseksi on ymmärretty, että vertailuilla ja operatiivisella testauksella on merkittävä rooli, kun halutaan varmistaa, että tekoälyjärjestelmät palvelevat sidosryhmiään onnistuneesti ja vastaavat laatuvaatimuksiin niin testiympäristöissä kuin reaalimaailmassa. Kolmanneksi on opittu viestimään asiakkaiden kanssa niin, että heillä on paremmat valmiudet ottaa järjestelmiä käyttöön vastuullisesti.
Nämä opit ovat auttaneet Microsoftia muovaamaan uusia käytäntöjä. Uuden Transparency Notes -järjestelmän avulla tiimit voivat viestiä tekoälyjärjestelmän tarkoituksista, ominaisuuksista ja rajoituksista. Näin asiakkaat pystyvät ymmärtämään, milloin ja miten Microsoftin alustateknologioita voidaan hyödyntää. Transparency Notes auttaa kuromaan umpeen kuilua markkinoinnin ja teknisen dokumentaation välillä. Samalla asiakkaat saavat aktiivisesti etukäteen tietoa tekoälyn vastuullisesta käyttöönotosta.
Ajattelutapojen kehittäminen ja vaikeiden kysymysten esittäminen
Kaiken opitun perusteella on tärkeää, että työntekijät pohtivat Microsoftin rakentamia tekoälyratkaisuja kokonaisvaltaisesti. Tähän kuuluvat myös sosioteknisten vaikutusten syvällinen pohdinta ja niiden seurauksista vastaaminen. Siksi Microsoft on kehittänyt koulutusta ja käytäntöjä, jotta työntekijät voivat kysyä tärkeitä kysymyksiä kuten “miksi kehitämme tätä tekoälyjärjestelmää” ja “sopiiko järjestelmän ytimessä toimiva tekoälyteknologia käyttötarkoitukseensa”.
Vuonna 2020 Microsoftin työntekijöille järjestettiin pakollinen Johdatus vastuulliseen tekoälyyn -koulutus, joka tarjosi yli 145 000 työntekijälle tietoa arkaluontoisten käyttötapausten prosessista, vastuullisen tekoälyn standardista sekä Microsoftin tekoälyperiaatteista. Lisäksi yhtiö käynnisti Envision AI -ohjelman, johon sisältyy työpajatoimintaa ja opastusta vaikutusarvioiden laatimiseen. Samalla se esittelee osallistujille todellisia vastuullisen tekoälyn kehittämisskenaarioita, ja vuorovaikutteisten harjoitusten myötä osallistujat saavat tietoa ihmiskeskeisestä tekoälystä ja sen edellyttämästä ajattelutavasta. Samalla osallistujat oppivat käyttämään erilaisia työkaluja, joiden avulla voidaan järjestelmällisesti pohtia teknologian vaikutuksia laajoihin ihmisjoukkoihin. Palaute on ollut kannustavaa. Tällä hetkellä Envision AI -ohjelmaa ollaan laajentamassa eri tiimeille ja yhtiön ulkopuolisille ryhmille.
Ajattelutavan muuttaminen vaatii myös jatkuvaa vuoropuhelua, integraatiota ja käytäntöjen vahvistamista. Toisinaan tiimit ovat kokeneet todellisia ahaa-elämyksiä esimerkiksi käydessään läpi asiakasraporttia tekoälyjärjestelmästä, joka ei ole toiminut hyväksyttävällä tavalla. Samaan aikaan tiimit ovat miettineet, onko vastuullisuus rajoittavaa – ja sittemmin havainneet, että ihmiskeskeinen lähestymistapa tekoälyyn ei johda pelkästään vastuulliseen vaan kaiken kaikkiaan parempaan tekoälytuotteeseen.
Uudet uraauurtavat suunnittelukäytännöt
Tietosuojaan ja etenkin EU:n tietosuoja-asetukseen (GDPR) liittyvät kokemukset ovat osoittaneet, miten tärkeää laajamittaisen tekoälyhankkeen toteuttamisessa on erikseen suunnitella järjestelmät ja työkalut sekä varmistaa, että keskeiset näkökohdat on huomioitu jo suunnitteluvaiheessa.
Kun vastuullisen tekoälyn ohjelmaa on laajennettu koko yhtiöön, on ollut tärkeää saada käyttöön tuotekehitysjärjestelmiä ja -työkaluja, jotka helpottavat vastuullisen tekoälyn sitoumusten noudattamista. Vaikka työkalut – etenkään teknisimmässä mielessä – eivät kykene syvälliseen, ihmiskeskeiseen ajattelutyöhön, jota tarvitaan tekoälyjärjestelmien kehittämisessä, on tärkeää kehittää toistettavissa olevia työkaluja, malleja ja käytäntöjä mahdollisuuksien mukaan. Näin Microsoftin tuotekehitystiimit voivat keskittää luovaa ajatteluaan uudentyyppisiin haasteisiin sen sijaan, että keksisivät pyörää uudelleen. Integroidut järjestelmät ja työkalut auttavat myös edistämään yhdenmukaisuutta sekä varmistavat, että tekoälyn vastuullinen käyttö on osa tuotekehitystiimien arkea. Tämän tueksi ollaan aloittamassa hanketta, jonka tavoitteena on tasoittaa tietä tekoälyn vastuulliselle käytölle Microsoftin ratkaisuissa. Hanke kattaa työkalut, mallit ja käytännöt, joiden avulla tiimit voivat helposti integroida vastuullisen tekoälyn vaatimuksia jokapäiväisiin kehityskäytäntöihinsä.
Tekoälyn vastuullisen kehityksen tehostaminen
Lähitulevaisuudessa Microsoft keskittyy kolmeen asiaan:
- toteuttamaan periaatteita johdonmukaisesti ja järjestelmällisesti vastuullisen tekoälyn standardin käyttöönotossa
- kehittämään vastuullisen tekoälyn kärkisovelluksia soveltavan tutkimuksen ja uusien tuotekehitysjärjestelmien ja -työkalujen avulla
- edistämään vastuullisen tekoälyn kulttuuria koko organisaatiossa.
Tekoälyteknologioiden nopea yleistyminen tuo esille uusia ja monimutkaisia eettisiä haasteita, joihin ei ole vielä vastauksia. Microsoftin vastuullisen tekoälyn peruspilarit on kuitenkin suunniteltu auttamaan yhtiötä pysymään näiden haasteiden tasalla sekä toteuttamaan harkittua ja periaatteellista lähestymistapaa. Jatkuva oppiminen – myös yhdessä – on jatkossakin tärkeää.