Przejdź do głównej zawartości

#TuesdAI: PorozmawiAImy, czyli rozwój technologii Conversational AI

Projektowanie i wdrażanie interfejsów konwersacyjnych, takich jak chatboty czy wirtualni asystenci nabiera tempa. Ważne jest więc, aby partnerzy, którzy pracują nad tymi rozwiązaniami, ale także sami klienci byli jak najlepiej poinformowani. Muszą wiedzieć, jakie korzyści przynosi ta technologia i dlaczego mogą jej ufać. Odpowiedzialny rozwój technologii Conversational AI wymaga jednak zastosowania pewnych wytycznych, które są nie tylko wypadkową najlepszych praktyk rynkowych i doświadczenia, ale także odpowiedzią na oczekiwania i głosy klientów.

Conversational AI nie jest dla Microsoft nowością. Prace nad interfejsami konwersacyjnymi trwają w firmie od 1995 roku, kiedy powstawała osadzona we wczesnej wersji Internet Explorera graficzna usługa czatu zamieniająca wypowiedzi użytkowników sieci IRC w komiksowe obrazki autorstwa Jim Woodringa – Comic Chat. Odrobiona na kanwie tamtych doświadczeń lekcja, a także najnowsze – trwające prace nad rozwojem Cortany czy Zo – pomogły Microsoft w sformułowaniu wytycznych, których firma przestrzega nie tylko we własnych wysiłkach nad rozwojem sztucznej inteligencji, ale traktuje jak dobre praktyki rynkowe dla całego ekosystemu AI.

Wspomniane wytyczne uznaliśmy za warte przemyślenia, zwłaszcza w kontekście projektowania botów – które w konsekwencji swojego działania mogą wpływać na użytkowników – np. pomagając im w nawigowaniu po oceanie informacji związanych z zatrudnieniem, finansami, zdrowiem fizycznym czy psychicznym. W takich sytuacjach nauczyliśmy się myśleć dwa razy i pytać – czy są to sytuacje, w których istotny jest czynnik ludzki, zapewniający osądy, wiedzę ekspercką czy empatię?

Oprócz wytycznych, chcemy oddać do użytku naszych partnerów szereg narzędzi, takich jak m.in. klasyfikatory wyrażeń uznawanych za obraźliwe w ramach technologii Microsoft Bot Network, która pomoże chronić boty przed nadużyciami, ale także Microsoft Azure Application Insights – pomocne w określeniu błędów w działaniu i utrzymaniu niezawodności botów.

Microsoft’s Lili Cheng (Photo by Scott Eklund/Red Box Pictures)
Microsoft’s Lili Cheng (Photo by Scott Eklund/Red Box Pictures)

Wytyczne kładą zdecydowany nacisk na rozwój Conversational AI, której można zaufać już od samego początku procesu projektowania rozwiązań. Zachęcają one firmy i organizacje do krótkiego zatrzymania się i zastanowienia nad tym, w jaki sposób ich boty będą wykorzystywane i czy podejmują oni niezbędne kroki, aby zapobiec ewentualnym nadużyciom.

Podsumowując, wszystkie wytyczne dotyczą zaufania, ponieważ jeśli ludzie nie ufają technologii, nie będą jej używać.

Doskonałość w niedoskonałości

Pierwszym krokiem w zdobywaniu zaufania jest przejrzystość w wykorzystaniu technologii konwersacyjnej sztucznej inteligencji. Warto upewnić się, czy użytkownicy rozumieją, że mogą swobodnie wchodzić w interakcje z botem zamiast (lub oprócz) osoby oraz czy mają świadomość tego, że podobnie jak ludzie, boty bywają omylne. Dobrze jest oficjalnie potwierdzić ograniczenia swojego bota i upewnić się, że trzyma się on ściśle wyznaczonych zadań. Dla przykładu, bot zaprojektowany do przyjmowania zamówień na pizzę powinien unikać zajmowania się wrażliwymi tematami, takimi jak kwestie rasy, płci, religii czy polityki.

Polecam podejść do tematu Conversational AI, jak do narzędzia rozszerzającego obecność marki w sieci o usługi, które mogą być współdzielone z klientami i pracownikami używającymi w komunikacji języka naturalnego, także w imieniu organizacji, którą reprezentują ci ostatni. Pamiętajmy, że kiedy klienci czy użytkownicy technologii wchodzą w interakcję z botem reprezentującym naszą organizację, w grę wchodzi zaufanie tejże. Jeżeli bot narusza zaufanie klienta, w rzeczywistości naruszone może zostać także zaufanie do organizacji, którą reprezentuje. Dlatego właśnie pierwszym i nadrzędnym celem niniejszych wytycznych jest pomoc projektantom i twórcom interaktywnej sztucznej inteligencji w budowaniu odpowiedzialnych botów, „ufających” organizacji, którą reprezentują.

Ważne także to, że wspomniane wytyczne to stan naszej obecnej wiedzy, która cały czas się zmienia. Nadal mamy więcej pytań niż rozwiewających wątpliwości odpowiedzi. Wiemy natomiast, że najlepszą drogą do dalszej nauki jest projektowanie, tworzenie i wdrażanie kolejnych botów w świecie rzeczywistym.

Materiały dodatkowe:

Odpowiedzialne boty: dziesięć wskazówek dla developerów pracujących z technologią Conversational AL

Dowiedz się więcej o podejściu Microsoft do sztucznej inteligencji i zapoznaj się z książką The Future Computed

O autorce: Lili Cheng, Corporate Vice President oraz Distinguished Engineer w zespole Microsoft AI and Research