Ponad sześć na dziesięć kobiet i osób z mniejszości etnicznych uważa, że niektóre filtry czy aplikacje do edycji zdjęć działają lepiej w przypadku określonych odcieni skóry. 74% z nich jest przekonana, że lotniskowe skanery częściej kierują do kontroli kobiety o kolorze skóry innym niż biały. Czy możliwe jest przeciwdziałanie stronniczości algorytmów?
Technologie cyfrowe mają coraz większy wpływ na nasze życie. Niestety efektem ubocznym ich rozwoju może stać się szerokie rozpowszechnienie uprzedzeń i wykluczenia.
Przykładowo, narzędzie HR oparte na sztucznej inteligencji, opracowane przez dużą globalną firmę technologiczną (a następnie porzucone), zostało przeszkolone przy użyciu zbioru danych, który był zdominowany przez mężczyzn. W rezultacie było ono stronnicze wobec kobiet i wykluczało absolwentki dwóch żeńskich szkół wyższych. Amerykański System Rezerwy Federalnej zauważa, że podobne uprzedzenia algorytmiczne w usługach finansowych mogą prowadzić do wyższego wskaźnika odmowy udzielenia kredytu kobietom, zwłaszcza Afroamerykankom[1].
Uprzedzenia rasowe zostały odkryte również w głównym algorytmie oceny ryzyka opieki zdrowotnej, przypisującym dostęp do określonych świadczeń w oparciu o szanse wystąpienia danych chorób. Z tego algorytmu korzysta ponad 200 milionów osób w Stanach Zjednoczonych. System miał klasyfikować osoby czarnoskóre jako narażone średnio na niższe ryzyko wystąpienia chorób niż było to w przypadku osób o białym kolorze skóry. Nie przeszkadzał w tym fakt, że wśród osób o ciemnej skórze częściej występują choroby przewlekłe. W efekcie sztuczna inteligencja rzadziej kwalifikowała je do opieki niezbędnej dla osób o podwyższonym ryzyku występowania części schorzeń. Obecnie wiadomo już, że zbiór danych podany do systemu był niewystarczająco zróżnicowany[2].
Użytkownicy świadomi problemu
Jak pokazuje raport Capgemini Klucz do projektowania technologii sprzyjającej włączeniu społecznemu: Tworzenie zróżnicowanych i inkluzywnych zespołów technologicznych, ludzie korzystający z rozwiązań opartych na najnowszych technologiach wiedzą, że niektóre z nich mogą nie traktować wszystkich równo. Przykładowo 50% osób zaliczających się do mniejszości etnicznych uważa, że zaoferowano im online gorsze warunki jeśli chodzi o oferty niektórych produktów bankowych, niż osobom o innym kolorze skóry. Dla porównania tylko 28% osób, które nie pochodzą z mniejszości etnicznych odniosło podobne wrażenie.
60% osób pochodzących z mniejszości etnicznych jest zaniepokojonych tym, że wyszukiwanie obrazów online oparte jest o etniczne uprzedzenia. 53% ogółu konsumentów obawia się, że platformy społecznościowe nie filtrują fałszywych informacji lub treści szerzących dezinformację na temat mniejszości etnicznych.
- W tym kontekście rośnie zapotrzebowanie na większą różnorodność, równość i inkluzywność w zespołach, które opracowują i wdrażają nowe technologie, jak również w tych które odpowiadają za bezpośredni kontakt z osobami kupującymi. Jak wiemy z badań Capgemini, organizacje, które prowadzą zaawansowane działania w trosce o różnorodność są cztery razy bardziej skłonne do tworzenia produktów odpowiadających potrzebom wszystkich grup społecznych – mówi Ewa Krupka, Junior CSR Manager w Capgemini Polska.
Jak zbudować zespół, by tworzył włączające algorytmy
Wiedząc o tym, że różnorodny zespół oznacza produkt dopasowany do potrzeb szerszej grupy docelowej, należy zastanowić się w jaki sposób budować otwarte środowisko pracy. Kluczowym zagadnieniem jest z pewnością angażowanie osób na stanowiskach liderów biznesowych. Organizacje muszą również zadbać o procesy, które zapewnią bezpieczne i sprawiedliwe środowisko dla wszystkich zatrudnianych osób. Konieczne jest ciągłe prowadzenie działań edukacyjnych dotyczących równości i języka włączającego.
Za przykład może tutaj posłużyć Capgemini Polska. Aby wspierać osoby będące w procesie tranzycji, firma przygotowała poradnik dla przełożonych, w którym przybliża temat korekty płci i opowiada o wewnętrznych procedurach, które mogą go ułatwić.
- Chcemy mieć pewność, że wszyscy liderzy i liderki będą mieć wiedzę niezbędną do tworzenia wspierających zespołów. Naszym celem jest, aby wszyscy przełożeni pamiętali o szacunku wyrażanym w używaniu odpowiedniego imienia i zaimków. Ich rolą jest również stanie na straży zasad i reagowanie na każdy przejaw dyskryminacji. To zadanie wymaga dużej świadomości i czujności na nawet drobne przejawy uprzedzeń czy mikroagresję – mówi Ewa Krupka.
Jak upilnować AI?
Kluczowym zagadnieniem obok kwestii dotyczących budowania kultury inkluzywnej w zespołach jest sama praca ze sztuczną inteligencją. Zespoły AI i data-science powinny działać w oparciu o wspólny zestaw poglądów na temat zasad działania algorytmów.
- Bardzo istotny jest również odpowiedni dobór zbiorów danych, które posłużą do trenowania AI. Zespoły muszą szczególnie skupić się na zapewnieniu, że wybrane zestawy danych nie tworzą ani nie wzmacniają uprzedzeń. Aby to osiągnąć konieczna jest identyfikacja istniejących uprzedzeń w zbiorach przy użyciu narzędzi AI – w ten sposób łatwiej uniknąć ludzkich błędów. Dane muszą być badane i korygowane jeszcze przed opracowaniem algorytmów. W końcowej fazie tworzenia produktów konieczna jest dokładna weryfikacja. Najlepszym sposobem na nią jest słuchanie opinii szerszych grup użytkowników, czyli demograficzne testowanie sztucznej inteligencji – mówi Maciej Sowa, Dyrektor ds. Automatyzacji w Capgemini Polska.
Tworzenie inkluzywnych produktów pozwala organizacjom budować silną przewagę konkurencyjną, dzięki dostosowywaniu oferty dla szerokiej grupy odbiorców. Różnorodne zespoły opracowujące włączające projekty pozwalają również na innowacyjne myślenie, kreatywność i większą skalowalność cyfrowych produktów oraz usług. Organizacje, które nie podejmą tego kroku, przegapią ogromny potencjał, jaki niesie ze sobą różnorodność.
[1] Federal Reserve website, “What Are We Learning about Artificial Intelligence in Financial Services?” November 2018
[2] Capgemini Research Institute, “AI and the Ethical Conundrum,” October 2020.