Sztuczna inteligencja może przyczynić się do pozytywnych zmian społecznych i gospodarczych. Aby wykorzystać ten potencjał, organizacje muszą stawić czoła etycznym wyzwaniom, które niesie ze sobą coraz powszechniejsze wykorzystanie AI. Takie wnioski płyną z najnowszego raportu Capgemini: „Sztuczna inteligencja i zagadka etyczna: jak organizacje mogą budować solidne etycznie systemy sztucznej inteligencji i zdobywać zaufanie konsumentów”.
Odsetek klientów oceniających, że działania organizacji są w pełni przejrzyste, jeśli chodzi o wykorzystanie ich danych osobowych, spadł w porównaniu z ubiegłym rokiem o ponad 10 proc.: z 76 proc. do 62 proc. Jak wynika z raportu Capgemini, tylko 53 proc. organizacji posiada w swoich szeregach osobę odpowiedzialną za etykę systemów AI. Okazuje się także, że wdrażanie narzędzi oraz regulacji dla wykorzystywanych i rozwijanych systemów AI, wiąże się ze znaczącymi kosztami.
W raporcie zauważono, że chociaż organizacje są bardziej świadome etycznie, postęp we wdrażaniu etycznej sztucznej inteligencji jest nierówny. Czego przykładem może być fakt, że prawie tyle samo menedżerów rok temu twierdziło, że podjęło kroki w celu zbudowania „uczciwości” (65 proc. w 2020 w porównaniu z 66 proc. w 2019) i „audytowalności” (45 proc. w 2020 w porównaniu z 46 proc. w 2019) ich systemów AI. Spadła ocena przejrzystości działań: z 73 proc. do 59 proc., a dzieje się to pomimo faktu, że 58 proc. firm twierdzi, że buduje wśród pracowników świadomość problemów, które mogą wynikać z wykorzystania sztucznej inteligencji. Co istotne, badanie pokazuje również, że zdecydowana większość klientów – 70 proc., oczekuje, że organizacje będą zapewniać przejrzystość i uczciwość interakcji ze sztuczną inteligencją.
Negatywne doświadczenia klientów przekładają się na straty dla organizacji
- Publiczne i prywatne organizacje w coraz większym stopniu wdrażają technologie oparte na sztucznej inteligencji. Kluczowym wyzwaniem staje się zatem utrzymanie zaufania klientów. Służy temu wspieranie pozytywnych relacji między sztuczną inteligencją a konsumentami. Raport pokazuje, że największe społeczne i kulturowe wątpliwości wciąż budzi proces gromadzenia danych, szczególnie na potrzeby opieki zdrowotnej i sektora publicznego – zauważa Beniamin Poznański, szef zespołu CIS Projects & Consulting Eastern Europe w Capgemini.
Te obawy nie ograniczają się jednak do sektora publicznego. Badanie wykazało, że 65 proc. menedżerów zdawało sobie sprawę z tego, że niektóre używane przez nich systemy AI dyskryminowały różne grupy społeczne. Ponadto, blisko 60 proc. organizacji zostało z tego powodu poddanych kontroli prawnej, a 22 proc. spotkało się z negatywną reakcją klientów spowodowaną decyzją podjętą przez systemy AI. 45 proc. klientów przyznało, że podzieli się swoimi negatywnymi opiniami z rodziną i przyjaciółmi, 39 proc. zgłosi swoje obawy i zażąda wyjaśnień, a 39 proc. odrzuci sztuczną inteligencję na rzecz bardziej kosztownych interakcji międzyludzkich.
Kto weźmie odpowiedzialność za kwestie etyczne w AI?
Tylko 53 proc. organizacji ma w zespole lidera odpowiedzialnego za etykę systemów AI np. w funkcji Chief Ethics Officer. Jak wskazują eksperci Capgemini, ustanowienie przywództwa na najwyższym szczeblu jest konieczne, aby kwestie etyki zostały potraktowane priorytetowo. Tylko połowa badanych przyznała, że ma odpowiednią komórkę do zgłaszania problemów natury etycznej związanych z systemami sztucznej inteligencji, np. w postaci poufnej infolinii lub rzecznika praw konsumenta.
Potrzeba wprowadzenia przez organizacje tzw. “karty etycznej” jest dodatkowo napędzana przez konkretne regulacje prawne. Komisja Europejska wydała wytyczne dotyczące kluczowych zasad etycznych, które należy stosować przy projektowaniu aplikacji AI. Z kolei wytyczne wydane przez Federalną Komisję Handlu USA (FTC) na początku 2020 r., wzywają do tworzenia przejrzystej sztucznej inteligencji.
Według regulacji FTC, gdy system obsługujący sztuczną inteligencję podejmie niekorzystną decyzję (np. odmowa udzielenia kredytu), organizacja powinna pokazać poszkodowanemu konsumentowi kluczowe dane wykorzystane przy podejmowaniu decyzji. Powinna też zagwarantować mu prawo do zmiany wszelkich nieprawidłowych informacji.
Tymczasem, okazuje się, że podczas gdy w 2019 roku aż 73 proc. organizacji poinformowało użytkowników o tym, w jaki sposób decyzje związane ze sztuczną inteligencją mogą na nich wpłynąć, w 2020 roku ten odsetek spadł do 59 proc.
- Główne czynniki negatywnie wpływające na funkcjonalność modeli AI to przede wszystkim okoliczności wywołane przez pandemię COVID-19, potrzeby społeczne i środowiskowe, rosnącą złożoność modeli sztucznej inteligencji oraz zmiana zachowań konsumentów. Organizacje zmuszone zostały więc do przeprojektowania swoich systemów tak, aby odpowiadały nowym normom. Doprowadziło to jednak do mniejszej przejrzystości ich działań – podsumowuje Beniamin Poznański z Capgemini.
7 działań niezbędnych przy budowaniu etycznych systemów AI
Raport wskazuje także kierunek, w którym firmy powinny zmierzać, aby wyjść na przeciw oczekiwaniom konsumentów. Proponowany zestaw siedmiu kluczowych zasad opiera się na przywództwie, zarządzaniu i wewnętrznych dobrych praktykach:
- Jasno określony cel stosowania AI i ocena ogólnego oraz potencjalnego wpływu na otoczenie.
- Wdrażanie sztucznej inteligencji z korzyścią dla społeczeństwa i środowiska.
- Uwzględnienie zasady różnorodności i integracji w całym cyklu życia systemów AI.
- Dbałość o transparentność zasad wykorzystania systemu za pomocą narzędzi technologicznych.
- Humanizacja doświadczenia AI i zapewnienie nadzoru człowieka nad systemami AI.
- Zapewnienie solidności technologicznej systemów AI.
- Ochrona prywatności ludzi i powierzenie im speawczości i odpowiedzialności za interakcje z AI.
Z pełnym raportem można zapoznać się tutaj.