Microsoft julkistaa ohjeistuksen keskustelevan tekoälyn vastuulliseen kehittämiseen

 |   Microsoft News Center

Bots

Yhä useammat kumppanimme ja asiakkaamme kehittävät käyttäjän kanssa keskustelevia teknologioita, kuten chatbotteja ja virtuaaliassistentteja. Usein he kysyvät meiltä, kuinka kehittää näistä teknologioista sekä hyödyllisiä että luotettavia.

Tähän kysymykseen vastaa kehittämämme ohjeistus keskustelevien tekoälyteknologioiden vastuulliseen kehittämiseen: Responsible Bots: Ten Guidelines for Developers of Conversational AI. Se perustuu oppeihimme vastuullisen tekoälyn kehittämisestä sekä keskusteluihin asiakkaidemme kanssa.

Microsoftin Lili Cheng, Corporate Vice President ja tekoälyn kehitys- ja tutkimusyksikön tuotekehitysinsinööri, jakaa ajatuksiaan bottiohjeistuksestamme:

”Tämä ohjeistus on nimenomaan kokoelma ohjeita. Se sisältää niitä asioita, joiden me olemme huomanneet helpottavan ihmisten elämään merkittävästi vaikuttavien bottien suunnittelua. Botit voivat auttaa ihmisiä navigoimaan valtavien tietomassojen keskellä esimerkiksi työelämään, talouteen, hyvinvointiin ja mielenterveyteen liittyvissä asioissa. Näiden asioiden äärellä olemme oppineet pysähtymään ja kysymään, pitääkö mukana olla myös oikea ihminen tuomassa harkintakykyä, osaamista ja empatiaa.”

Ohjeistuksen lisäksi kehittäjät voivat hyödyntää myös muita Microsoftin työkaluja. Niitä ovat muun muassa Microsoft Bot Frameworkiin lisättävät loukkaavan sisällön tunnisteet, jotka suojaavat botteja väärinkäytöltä, sekä Microsoft Azure Application Insights, joka auttaa löytämään virheitä ja parantamaan botin luotettavuutta.

Ohjeistuksemme tukee vastuullisuuden ja luotettavuuden huomioimista, kun yritykset kehittävät keskustelevaa tekoälyä suunnitteluprosessin alusta asti. Ohjeistus kannustaa yrityksiä ja organisaatioita pysähtymään ja miettimään, miten niiden bottia käytetään, sekä ehkäisemään botin väärinkäyttöä. Ohjeistuksen tärkein osa-alue on luottamus, sillä jos ihmiset eivät luota teknologiaan, he eivät käytä sitä.

Me uskomme, että luottamusta rakennetaan tekemällä tekoälyn käytöstä läpinäkyvää.

  • Varmista, että käyttäjät tai asiakkaasi tietävät keskustelevansa botin kanssa ihmisen sijaan tai ihmisen lisäksi ja että he tietävät, että myös botit voivat tehdä virheitä.
  • Kerro avoimesti bottisi rajoituksista ja varmista, että botti tekee vain sitä, mihin se on suunniteltu. Esimerkiksi pizzatilauksia varten suunnitellun botin ei pitäisi keskustella herkistä aiheista, kuten etnisestä alkuperästä, uskonnosta tai politiikasta.
  • Suhtaudu keskustelevaan tekoälyyn osana brändiäsi. Se on palvelu, joka keskustelee asiakkaidesi kanssa ja käyttää luonnollista kieltä organisaatiosi puolesta. Jos bottisi rikkoo asiakkaasi luottamuksen, myös heidän luottamuksensa organisaatiotasi kohtaan kärsii.

Ohjeistuksen tärkein tavoite on auttaa keskustelevan tekoälyn kehittäjiä luomaan vastuullisia botteja, jotka lisäävät luottamusta niiden edustamaan organisaatioon. ”Kannustamme organisaatioita ja kehittäjiä käyttämään harkintaa ohjeiden hyödyntämisessä sekä varmistamaan, että bottien kehityksessä noudatetaan nopeasti muuttuvia säädöksiä yksityisyyteen, tietoturvaan ja helppokäyttöisyyteen liittyen. On myös tärkeää huomata, että tämä ohjeistus on koottu nykyisen näkemyksemme pohjalta ja se kehittyy jatkuvasti. Meillä on toistaiseksi vielä enemmän kysymyksiä kuin vastauksia. Opimme kuitenkin koko ajan lisää, kun suunnittelemme, kehitämme ja julkaisemme uusia botteja”, tiivistää Lili Cheng.

Tags: , ,