Rozwój sztucznej inteligencji nie jest jeszcze regulowany prawnie. Z jednej strony oznacza to, że nic nie krępuje kreatywności osób, które projektują coraz bardziej zaawanasowane rozwiązania i znajdują coraz to nowe wykorzystania tej technologii. Z drugiej strony, brak ograniczeń oznacza również większą liczbę potencjalnych zagrożeń za równo dla biznesu, jak i dla zwykłych użytkowników.
Rozwiązania oparte na AI mogą zrewolucjonizować nasze podejście do pracy. Zadania, które od zawsze wykonywaliśmy, mogą niebawem przestać zajmować nasz czas. Doskonałym przykładem jest np. robienie notatek ze spotkań. To rodzaj zadania, które zdecydowanie jest potrzebne i na poziomie koncepcji wymaga udziału człowieka, jednak dzięki najnowszym technologiom może zajmować zdecydowanie mniej czasu niż obecnie. Wystarczy przekazać narzędziu opartemu na dużym modelu językowym listę najważniejszych zagadnień, a ono przygotuje za nas poprawną notatkę.
Idąc o krok dalej można zastanowić się, ile czasu dziennie zajmuje nam pisanie e-maili. Możemy zdecydowanie skrócić ten proces przekazując najważniejsze informacje AI, która za nas przygotuje odpowiednia treść wiadomości.
Sztuczna inteligencja nie ogranicza się jednak do narzędzi generatywnych takich jak ChatGPT czy platformy pozwalające tworzyć obrazy. AI może wspomagać również zawody techniczne, a nawet te, które opierają się na umiejętnościach manualnych. Dobrym przykładem jest tu np. hydraulika. Trudno wyobrazić sobie, że AI jest w stanie odpowiednio wymienić rurę i usunąć awarię, jednak jego zupełnie realnym wykorzystaniem jest diagnozowanie źródeł problemów i podpowiadanie adekwatnych rozwiązań. Podczas jednego z organizowanych przez Capgemini Polska hackathonów, stworzono oprogramowanie do robota, który po wpuszczeniu do rur, za pomocą dźwięków odnajdywał pęknięcia i miejsca, gdzie struktura była osłabiona.
Kolejnym obszarem, w którym AI może zmienić bardzo wiele jest branża motoryzacyjna, a w konsekwencji ubezpieczeniowa. Już teraz najnowocześniejsze samochody zbierają bardzo wiele informacji o swoich użytkownikach i możemy zakładać, że ta tendencja się utrzyma. Angażując do analizy danych sztuczną inteligencję możemy stworzyć modele, w których np. za przepisową jazdę automatycznie otrzymujemy zniżki.
Wymieniając kolejne możliwe zastosowania AI, które mogą znacznie ułatwić codzienne zadania, trudno jest jednak nie zatrzymać się nad kwestią bezpieczeństwa – w końcu dane to obecnie jedna z najcenniejszych walut.
Czy AI jest niebezpieczna?
Dokładnie w momencie, kiedy szeroka publiczność dowiaduje się, że trwają prace nad jakąś nową technologią, zaczynają się również prace nad możliwością wykorzystanie jej do przestępczych celów lub złamania jej zabezpieczeń. Nie inaczej jest ze sztuczną inteligencją. Jasnym jest, że nad wykorzystaniem tej technologii pracują cyberprzestępcy, aby tworzyć coraz bardziej wyrafinowane i skuteczne ataki. Z pewnością łamanie jej zabezpieczeń stanowi obszar wzmożonych działań. Modele AI, aby móc odpowiadać na potrzeby osób kupujących, będą musiały przechowywać bardzo dużą liczbę danych, z których część prawdopodobnie będzie wrażliwa.
- W dziedzinie cyberbezpieczeństwa zawsze trwa wyścig: na każde nowe narzędzie do łamania zabezpieczeń przypada grupa osób, które pracują, aby je ponownie zabezpieczyć. Obydwie strony korzystają z AI. Jeżeli ktoś, np. z powodów etycznych miałby zrezygnować ze sztucznej inteligencji to będą to „dobrzy”. Ci „źli” będą z niej korzystać, nawet jeśli zostanie zakazana, dopóki będzie to użyteczne. Nie zgadzam się z pomysłem zabronienia prac nad AI, ponieważ to oznacza, że tylko ludzie, którzy nie respektują regulacji będą z niej korzystać – komentuje Kamil Świstowski, Technical Architect z Capgemini Polska.
Przyszłość zależy od nas
Bezpieczna sztuczna inteligencja może stać się rozwiązaniem, które zrewolucjonizuje naszą codzienność. Jednak, aby to było możliwe konieczne jest wspólne działanie. Pierwszym krokiem powinno być wzięcie odpowiedzialności za tworzone narzędzie. Jasnym jest, że AI będzie popełniać błędy, nie wszystkie przecież da się wyeliminować. To, co jest konieczne to pełna świadomość użytkowników na temat tego, jakiego rodzaju potknięcia mnogą się przydarzyć. Aby to było możliwe, firmy trenujące modele powinny działać transparentnie i mówić jasno o tym, jaki zespół pracuje nad danym projektem i ujawniać zakres wykorzystywanych baz danych. Z tą wiedzą użytkownicy będą w stanie przewidzieć stronniczość tzw. bias mechanizmu, którego może nie udać się nigdy w pełni wyeliminować. AI może zawsze mieć wbudowane w swoje struktury pewne bazowe przekonania i co za tym idzie tworzyć treści ukierunkowane w określony sposób. To właśnie dlatego osoby, które z niej korzystają powinny zdawać sobie sprawę z podstawowych wartości, które wyznają twórcy danego narzędzia.
Kolejna ważna sprawa to edukacja użytkowników. Obecnie powszechna wiedza na temat AI jest dość płytka i w dużej mierze oparta na wyobrażeniach ocierających się o science fiction.
- Każdy powinien zrozumieć, że AI to nie magia, to nie jest również autonomicznie myśląca jednostka. Chciałbym, aby każdy wiedział, że sztuczna inteligencja, na podstawowym poziomie technologiczny to obliczenia, statystyka i matematyka. To pozwoli trochę zdemistyfikować tę technologię i odpowiedzieć na pytania typu: Czy jeśli rozmawiam z botem to jest on istotą myślącą? Nie, nie jest. To jest kalkulator. Świetny, bardzo skomplikowany, ale wciąż kalkulator. Zrozumienie tego zabierze strać przed AI. I wtedy dopiero będzie można rozpocząć dyskusję. – mówi Kamil Świstowski.
Dobrze wykorzystane narzędzia AI z pewnością mogą przynieść nam więcej korzyści niż strat. Aby jednak tak się stało firmy muszą wypracować własne kodeksy etyczne i precyzyjnie ich przestrzegać. Dotyczy to zwłaszcza dużych organizacji, które wybierając podwykonawców i partnerów, wspierają określone kierunki rozwoju przekazując im środki, które umożliwiają dalsze inwestycje. To szczególnie ważne w okresie przejściowym, zanim powstaną ramy prawne.
Więcej na ten temat w odcinku podcastu Capgemini TechChatter z udziałem Kamila Świstowskiego.