Tempo zmian rośnie z dnia na dzień. Jeszcze niedawno generatywna sztuczna inteligencja była narzędziem dostępnym dla garstki entuzjastów technologii, dziś korzystają z niej miliony. Według raportu Fundacji IT Girls „Pokolenie AI: Jak młodzież korzysta ze sztucznej inteligencji”, aż 56% osób poniżej 25. roku życia w Polsce używa Chata GPT, a połowa z nich wspiera się AI przy nauce języków obcych. W dzisiejszym świecie wiedza o tym, jak działa AI, jest tak samo ważna, jak znajomość tabliczki mnożenia. Jednak w pogoni za nowymi technologiami łatwo zapomnieć o fundamentalnej lekcji: AI to tylko maszyna, która uczy się na podstawie naszych danych i uprzedzeń. Dzieci i młodzież potrzebują dziś nie tylko wiedzy technicznej, ale przede wszystkim umiejętności, które ochronią je przed pułapkami algorytmów i pozwolą odróżnić prawdę od fałszu.
Lekcja 1: AI to narzędzie, nie wyrocznia. Uczmy kwestionować.
Pierwszym i najważniejszym krokiem jest nauczenie dzieci, że sztuczna inteligencja nie jest nieomylna. Jej odpowiedzi mogą brzmieć pewnie i profesjonalnie, ale w rzeczywistości powstają w oparciu o dane, które mogą być niepełne, błędne lub nieaktualne. Jeśli dzieci będą przyjmować wszystko bezkrytycznie, ryzyko powielania błędów w sieci tylko wzrośnie. Dlatego warto uczyć je, by zawsze sięgały po dodatkowe źródła, porównywały fakty i umiały powiedzieć „sprawdzam”.
– Widzimy, że młodzi ludzie chętnie sięgają po nowe technologie, ale równie istotne jest, by potrafili świadomie je oceniać i sprawdzać, zamiast traktować jak niepodważalne autorytety. Dlatego w Capgemini, w ramach Olimpiady Zwolnieni z Teorii, realizujemy projekt YouA(nd)I – program edukacyjny dla uczennic i uczniów szkół średnich, którzy tworzą projekty społeczne związane ze sztuczną inteligencją lub wykorzystujące narzędzia oparte na AI. Wśród nich są m.in. aplikacja do nauki języków obcych czy baza wiedzy i chatbot dotyczący zdrowia psychicznego – komentuje Hanna Bednorz, CSR & Communication Lead w Capgemini Polska.
Lekcja 2: Zrozumieć, jak to działa. Odkodujmy czarną skrzynkę.
Wielu młodych ludzi traktuje działanie algorytmów jak coś magicznego. „Aplikacja wie, co lubię” – słyszymy często, ale rzadko kiedy dzieci rozumieją, jak to naprawdę działa. Dlaczego TikTok podsuwa im określone treści? Jak YouTube dobiera rekomendowane filmy? Co sprawia, że reklama w przeglądarce dotyczy dokładnie tego produktu, o którym przed chwilą rozmawiały z koleżanką?
Rozszyfrowanie tego „mechanizmu czarnej skrzynki” daje poczucie kontroli i sprawia, że dzieci przestają być tylko biernymi konsumentami treści. Rozumiejąc, jak działają algorytmy, mogą bardziej świadomie decydować, co oglądają, co klikają i komu udzielają swoich danych.
– W ramach programu YouA(nd)I, wspólnie z drugim partnerem projektu – ING Bankiem Śląskim – przeprowadziliśmy warsztaty dla uczestniczek i uczestników, podczas których omawialiśmy różne aspekty związane ze sztuczną inteligencją, w tym jej zastosowania w projektach, kwestie etyczne oraz prawa autorskie – dodaje Hanna Bednorz, CSR & Communication Lead w Capgemini Polska.
Lekcja 3: Dane to waluta. Nauczmy chronić prywatność.
Każdy ruch w sieci pozostawia ślad. Każde kliknięcie, polubienie, wyszukiwane hasło czy pytanie w chatbocie to informacje, które mogą być przetwarzane i wykorzystywane – czasem w celach edukacyjnych, a czasem marketingowych. Problem w tym, że dzieci i młodzież rzadko zdają sobie z tego sprawę.
Dlatego edukacja w zakresie ochrony prywatności powinna zaczynać się jak najwcześniej. Warto uczyć dzieci, że zanim coś udostępnią, powinny zadać sobie pytanie: „Czy naprawdę chcę, by ktoś mógł to wykorzystać?” Takie nawyki są dziś równie ważne jak zasady bezpieczeństwa w ruchu drogowym.
Lekcja 4: Rozpoznaj stronniczość algorytmów.
Algorytmy są tak dobre, jak dane, na których się uczą. A jeśli w danych są uprzedzenia, stereotypy albo braki – wyniki też będą stronnicze. To widać w systemach rozpoznawania twarzy, w treściach rekomendowanych w sieci, a nawet w automatycznych narzędziach rekrutacyjnych.
Rozmowy z dziećmi i z młodzieżą o stronniczości algorytmów to nie tylko kwestia technologii, ale i etyki. To sposób, by pokazać im, że neutralność w świecie cyfrowym to mit i że zawsze warto krytycznie patrzeć na to, co proponuje im technologia.
Lekcja 5: Myśl etycznie. Pamiętaj, co nas odróżnia od maszyn.
Nawet najbardziej zaawansowana sztuczna inteligencja nie ma empatii, moralności ani kreatywności w ludzkim rozumieniu. Może analizować dane szybciej niż człowiek, ale nie rozumie kontekstu emocjonalnego, nie ma poczucia humoru ani wyobraźni w takim sensie, w jakim mamy je my.
Dlatego warto podkreślać, że rozwój technologii nie oznacza, iż musimy rywalizować z maszynami. Wręcz przeciwnie – powinniśmy uczyć dzieci, by rozwijały to, czego algorytmy nie mają: wrażliwość, kreatywność, zdolność współpracy i empatię. To te cechy pozwolą im wyróżnić się w świecie coraz bardziej zdominowanym przez technologie.