Liczba użytkowników narzędzi sztucznej inteligencji w Polsce wyniosła około 760 tysięcy w 2022 roku. Prognozuje się, że w 2030 r. liczba ta wzrośnie do ponad 3,3 mln1. Obecnie na całym świecie 1,5 miliarda ludzi każdego dnia wykorzystuje AI w pracy i życiu prywatnym. Boom, jaki obserwujemy od zeszłego roku, nie oznacza, że sztuczna inteligencja jest technologiczną nowością. Jej koncepcja istnieje w ludzkiej świadomości od wieków. W pierwszej połowie XX. stulecia idea „elektronicznego mózgu” zaczęła nabierać konkretnych kształtów.
W XVIII wieku filozofowie zastanawiali się, w jaki sposób ludzkie myślenie mogłoby zostać sztucznie zmechanizowane. Były to jednak tylko „szalone” teorie bez szans na praktyczne wdrożenia. Przełom nastąpił pod koniec lat 30-tych XX. stulecia wraz z budową komputera cyfrowego Atanasoff Berry Computer. Dzięki niemu naukowcy zaczęli na poważnie rozważać budowę "elektronicznego mózgu".
Efekt wielu lat ludzkiej pracy
- To, czego doświadczamy dzisiaj jest efektem wielu lat ludzkiej pracy. Można powiedzieć, że początki sztucznej inteligencji to lata 50. XX wieku, gdy przedstawiono koncepcję maszyny, która będzie w stanie naśladować ludzką inteligencję. Pojawiają się wówczas pierwsze sieci neuronowe. Kolejny przełom przyniosły lata 80. i wykorzystanie machine learning, czyli uczenia maszynowego, które jest jądrem dzisiejszych rozwiązań AI – opowiada Wojciech Sarnowski, Senior Data Scientist w Capgemini Polska.
Pionierami współczesnej sztucznej inteligencji są bez wątpienia Alan Turing i John von Neumann, którzy w latach 40-tych stworzyli koncepcję maszyny mogącej symulować ludzką inteligencję. Otwarło to drogę dla działań naukowców w latach 50-tych, kiedy to sztuczna inteligencji zaczęła nabierać realnego kształtu. Przełomowa okazała się Konferencja w Dartmouth College w 1956 roku. W jej trakcie amerykański informatyk John McCarthy po raz pierwszy użył terminu "sztuczna inteligencja".
Atencja zmieniła przyszłość AI
Kolejnym etapem w rozwoju AI było wykorzystanie do pracy modelu atencji, co miało miejsce w 2015 roku. To metoda, która wyznaczyła kierunek w zakresie przetwarzania języka naturalnego. Atencja zmusza modele AI do skupienia uwagi na właściwych informacjach w danym kontekście. To obecnie podstawa w poprawianiu skuteczności modeli AI.
- Atencja jest w stanie dobrze układać relacje między słowami w zdaniu. Jest w stanie wyłapać właściwy kontekst i dobrze opisać każde słowo. Przykładem mogą tu być homonimy. Na przykład słowo „zamek” może mieć wiele znaczeń. Dla ludzi to nie jest problem wyłapać właściwy kontekst dla takiego słowa. Dla algorytmów nie jest to takie proste. Atencja to prawdziwy przełom w technologii – tłumaczy Wojciech Sarnowski.
Do sytuacji idealnej jeszcze długa droga
Z każdą kolejną dekadą pojawiały się innowacje i odkrycia, które zmieniały wiedzę ludzi na temat sztucznej inteligencji. Z wizji niemal science-fiction, AI stawała się powoli namacalną rzeczywistością. Lata pięćdziesiąte i sześćdziesiąte to był czas tworzenia podstaw sztucznej inteligencji, zarówno od strony teoretycznej, jak i „marketingowej”. To wówczas powstały pierwsze książki i filmy, które rozbudzały masową wyobraźnię. Wpływ tego okresu odczuły kolejne dekady rozwoju sztucznej inteligencji. Lata 70. przyniosły pierwszego antropomorficznego robota zbudowanego w Japonii i pierwszy autonomiczny pojazd. Okres lat 80. to zarówno przełomowe badania i coraz większe fundusze rządowe na wsparcie naukowców. To był czas pierwszego „Boomu AI”. Obecny boom ma swoje początki w drugiej dekadzie XXI wieku, kiedy to nastąpił gwałtowny wzrost popularności narzędzi AI, takich jak wirtualni asystenci czy wyszukiwarki. Wielkim wkładem technologii w eksplozję popularności AI stało się spopularyzowanie Big Data, które dzisiaj nierozerwalnie łączy się z modelami sztucznej inteligencji. AI weszła dziś do mainstreamu i to nie tylko technologicznego. Pojawienie się w grze Microsoftu, Facebooka czy Google’a jednoznacznie potwierdziło rolę AI na przyszłość. Ale do sytuacji idealnej jest jeszcze długa droga.
Pod spodem pracuje statystyka
- Uważam, że chatom daleko do ludzkiej inteligencji. To chyba jeszcze nie jest ten etap. Tam po prostu pod spodem pracuje statystyka. Tyle i aż tyle. Statystyka jest w stanie wygenerować naprawdę świetne treści. Natomiast chat może jest skomplikowany, ale działa według bardzo prostej zasady - ma wygenerować następne słowo, mając zadaną już wcześniej sekwencję słów. Czasami ma oczywiście halucynacje – przekonuje Wojciech Sarnowski. - Halucynacje to sytuacja, w której model AI nie wie co powiedzieć i po prostu zmyśla. Zmyśla albo mówi część prawdy, co jest chyba gorsze niż gdyby całkowicie zmyślał – dodaje ekspert.
Sztuczna inteligencja zmienia niemal każdą branżę i wpływa na społeczeństwo w sposób, który dopiero zaczynamy rozumieć. W opiece zdrowotnej sztuczna inteligencja jest wykorzystywana do opracowywania spersonalizowanych planów leczenia i poprawy wyników leczenia pacjentów. W handlu elektronicznym jest wykorzystywana do przewidywania zachowań klientów i poprawy jakości zakupów online. Wraz z dalszym rozwojem technologii AI, możemy spodziewać się jeszcze bardziej innowacyjnych zastosowań w nadchodzących latach.
Więcej na ten temat w jednym z odcinków podcastu Capgemini TechChatter
1 https://www.statista.com/statistics/1400305/poland-ai-tools-users/