Przejdź do głównej zawartości

#TuesdAI: Regulowanie sztucznej inteligencji, czyli jak nie zrealizować rosyjskiego przysłowia „pospieszysz – ljudiej nasmieszysz”

Kolejnym elementem czwartej rewolucji przemysłowej, o którym głośno w ostatnich miesiącach, jest technologia sztucznej inteligencji, a wraz z nią kolejna fala rozważań technologiczno-regulacyjnych. Rządy coraz to kolejnych krajów ogłaszają dokumenty strategiczne bądź rozpoczęcie prac nad takowymi. Różne gremia eksperckie, organizacje pozarządowe, zespoły powoływane przez Unię Europejską, administrację państwową lub w końcu przedstawiciele biznesu zastanawiają się lub wręcz podejmują działania regulujące tworzenie i stosowanie nowoczesnych rozwiązań technologicznych opartych o sztuczną inteligencję. Co więcej – niektóre projekty regulacji unijnych lub prawo, które zupełnie niedawno zaczęło obowiązywać, będą miały niezaprzeczalny wpływ na takie rozwiązania już za chwilę – i może to być wpływ zarówno pozytywny – budujący środowisko sprzyjające rozwojowi tych technologii, jak i negatywny – powodujący blokowanie innowacyjności i ograniczenia tworzenia i stosowania AI.

W podobnych momentach w przeszłości wielokrotnie wracał do nas dylemat – jak się mają obecne regulacje do nowych technologii – czy są wystarczające? Czy tworzenie nowych regulacji jest konieczne już teraz? Czy prawo ma reagować czy wyprzedzać i antycypować? I w końcu, czy proponowane regulacje będą efektywne i „w punkt”?

Dodatkowo w ciągu ostatnich lat można zaobserwować dosyć znaczne przyspieszenie w regulowaniu nowoczesnych technologii informacyjnych wraz ze wzrostem znaczenia kwestii prywatności czy też wraz ze wzrostem zagrożeń w cyberprzestrzeni. To wszystko powoduje, że zarówno obywatel jak i biznes może zacząć powoli czuć się osaczany propozycjami akceptacji, regulaminami, politykami bezpieczeństwa i prywatności i innymi wymogami prawa towarzyszącymi technologiom, z których korzystamy na co dzień.

Wracając do AI – pytanie zasadnicze brzmi – jak zmierzać w kierunku tzw. „sensible regulations” – regulacji odpowiadających na kluczowe zagrożenia, a zarazem „nie wylewających dziecka z kąpielą”, regulacji usprawniających przepływ danych, a zarazem wzmacniających ochronę obywateli, konsumentów i partnerów gospodarczych, regulacji godzących wyzwania prywatności i bezpieczeństwa. Trudne… hmm

Zanim powstaną przepisy, już dzisiaj powstają strategie. Jak mówi nam niedawno opublikowany raport fundacji Digital Poland ” Przegląd Strategii Rozwoju Sztucznej Inteligencji na Świecie”, w którym czytamy: „Kanada, Chiny, Francja, Stany Zjednoczone, Japonia, Wielka Brytania, Finlandia, Korea Południowa czy Zjednoczone Emiraty Arabskie mają już jasny plan działania w tej sprawie. Do tego grona wkrótce dołączy także Estonia.” Polski Rząd jest na etapie powoływania zespołów roboczych, mobilizacji wszystkich kluczowych interesariuszy i definiowania kierunków rozwoju AI, które mogłyby być oficjalnie ogłoszone w naszej narodowej strategii AI. Wybrane wyzwania regulacyjne pewnie też będą tam zawarte, a przynajmniej wspomniane. Oprócz strategii rządowych think tanki i firmy konsultingowe pracują nad strategiami i rekomendacjami dla polityków odnośnie do europejskiego biznesu czy też europejskich startupów – przykładem może być „Artificial Intelligence – A strategy for European startups” przygotowana przez Rolanda Bergera i Asgard. No i oczywiście Unia Europejska nie pozostaje w tyle i dodaje własny punkt widzenia na rozwój sztucznej inteligencji na obszarze wspólnego rynku w Komunikacie Komisji Europejskiej do pozostałych instytucji unijnych o Sztucznej Inteligencji w Europie.

Teraz o przepisach – w poprzednim ustępie napisałem „Zanim zaczną powstawać przepisy…” – zasadniczo już zaczęły powstawać, niektóre nawet weszły w życie. Choćby unijne rozporządzenie o ochronie danych osobowych – wiele rozwiązań bazujących na technologii sztucznej inteligencji opiera swoje algorytmy na danych, w tym osobowych, a tym samym musi podlegać rygorom tej regulacji.

Kolejną regulacją, która będzie miała wpływ na rozwój i stosowanie rozwiązań AI jest projekt rozporządzenia e-Privacy. W założeniach Komisji projekt ten ma przyczynić się do objęcia zasadami poufności komunikacji w świecie cyfrowym przez dostawców takich jak WhatsApp, FB Messenger czy Skype, do zachowania poufności nie tylko zawartości komunikacji, ale także tzw. metadanych, czyli danych towarzyszących komunikacji właściwej, takich jak lokalizacja czy czas trwania rozmowy, w końcu do wdrożenia prostszych zasad akceptacji i zarządzania tzw. ciasteczkami (cookies). Niestety założenia a przewidywane skutki proponowanej regulacji to zupełnie dwie różne strony medalu. Zarówno duże firmy informatyczne jak i środowisko startupowe wskazują na liczne ryzyka wynikające z obecnych projektów (komisyjnego, parlamentarnego i tego powstającego w trilogu). Zgody, którymi będą obarczane dodatkowo rozwiązania w komunikacji cyfrowej, która nota bene może zachodzić nie tylko pomiędzy ludźmi, ale również pomiędzy maszynami, czasami jest wręcz niemożliwa do wyegzekwowania. Poza tym w świecie cyfrowym, który reaguje na cyberzagrożenia w czasie rzeczywistym, gdzie aktualizacje aplikacji następują ciągle, wprowadzanie kolejnych wymogów zgód może zakończyć się czymś na kształt „zaakceptowania na śmierć”. Wiele z takich rozwiązań, które będą podlegały regulacjom z przyszłego rozporządzenia e-Privacy zawiera w sobie elementy sztucznej inteligencji, co może doprowadzić do blokady ich rozwoju albo przynajmniej spowolnienia, co dla konkurencyjnego rynku globalnego oznacza, że rozwiązania z UE mogą przegrać z rywalami z USA czy Chin. O polskich przykładach możecie poczytać w niedawno opublikowanym raporcie think tanku Polityki Insight, kancelarii prawnej Dentons i polskiego oddziału Microsoft p.t. „Iloraz Sztucznej Inteligencji. Potencjał AI w polskiej gospodarce.”

Kolej na unijno-europejski „Nowy Deal dla Konsumentów” (New Deal for Consumers) – zaproponowaną przez Komisję reformę zasad ochrony konsumentów na wspólnym rynku, a w tym poprawę ochrony konsumentów w sferze on-line. Tutaj Komisja poprzez przyszłe zmiany do Dyrektyw proponuje zwiększenie transparentności w sklepach on-line – konsument powinien wiedzieć, czy kupuje od profesjonalnego sprzedawcy czy od osoby fizycznej, a także więcej transparentności w wyszukiwarkach – konsument powinien wiedzieć czy wyniki, które widzi były opłacone przez przedsiębiorcę, czy też wynikały z „czystego” algorytmu wyszukiwania. Dodatkowo prawa konsumenta do zrezygnowania z usług cyfrowych będą rozszerzone na „bezpłatne” usługi, do których dostęp uzyskuje się poprzez przekazanie swoich danych osobowych. Zarówno w sklepach online, jak i w wyszukiwarkach, a także na platformach mediów społecznościowych mechanizmy sztucznej inteligencji to chleb powszedni dla dzisiejszych twórców tych narzędzi, tak więc będą oni musieli je dostosować do nowych rozszerzonych praw konsumenckich. Z jakim skutkiem dla rozwoju AI? Zobaczymy.

Na koniec konkretna propozycja obszaru do uregulowania, który dotyczy sztucznej inteligencji w rozwiązaniach technologicznych do rozpoznawania twarzy. Ten konkretny aspekt rozwoju AI jest bardzo istotny dla praw i wolności obywatelskich, takich jak prywatność, wolność słowa czy wolność zgromadzeń. Generalnie dla podstawowych wartości w państwach demokratycznych. Narzędzia do rozpoznawania twarzy mogą być używane zarówno w rozwiązaniach biznesowych jak i przez rządy czy administrację publiczną. Mogą być dostarczane przez firmy informatyczne zarówno rządom, które potrzebują takich rozwiązań w związku z kataklizmami i koniecznością poszukiwań zaginionych osób czy też łączenia rozdzielonych w wyniku trzęsień ziemi rodzin, jak i rządom, które z ich pomocą chcą zwalczać wewnętrzną opozycję, protestantów, identyfikować demonstrantów czy też śledzić konkretne osoby, łamiąc ich prawa i wolności obywatelskie. Jako że ten obszar wykorzystywania AI nie jest obecnie uregulowany, Brad Smith – Prezydent Microsoft – zaapelował do Kongresu USA o utworzenie komisji wspólnej, złożonej z Republikanów i Demokratów, którzy podjęliby się stworzenia zrębów prawnych regulujących ten aspekt wykorzystania AI. Brad Smith stwierdził, iż “jako generalna zasada, wydaje się bardziej roztropne wnosić do wybieralnego rządu o regulowanie działania firm niż prosić niewybieralne firmy, aby regulowały użycie technologii tak, jak rząd”. Prace takiej Komisji „powinny wziąć pod uwagę ostatnie dokonania akademickie, jak również sektora publicznego i prywatnego zmierzające do oceny stanu tego tematu oraz do wypracowania jaśniejszych zasad etycznych dla tej technologii”.

Z powyższych przykładów obecnych, przyszłych i proponowanych regulacji wynika, iż całościowy obraz stanu regulacji mających wpływ na rozwój AI jest już dzisiaj złożony, a będzie jeszcze bardziej. Pośpiech w takim razie jest tu mało wskazany. Z tych samych przykładów wynika również, że filozofie tworzenia lub proponowania regulacji są różne – często dotyczą horyzontalnych tematów, które mogą wpływać na wiele rozwiązań technologicznych i w takich przypadkach nierzadko blokować ich dalszy rozwój, czasem są to propozycje ukierunkowane na pewien konkretny aspekt funkcjonowania technologii i jej wpływu na społeczeństwo. W takich przypadkach chodzi o realne i zidentyfikowane ryzyka lub zagrożenia społeczne, polityczne lub kulturowe. Wydaje się, iż takie „targetowane” pomysły są bardziej celowe i powinny być bardziej skuteczne. Propozycje prawne powinny być reaktywne i oparte na dogłębnej diagnozie. A pospieszne propozycje innowatorów legislacyjnych, którzy uważają, iż świat cyfrowy musi czym prędzej być wzięty w ryzy paragrafów mogą narazić się na śmieszność, gdyż rozwój technologiczny jest odrobinę szybszy niż tempo prac nad nowym i skutecznym prawem.