Sztuczna Inteligencja – lepsze życie czy kontrola ludzi?

Systemy SI (sztucznej inteligencji) coraz lepiej radzą sobie z kolejnymi dziedzinami, czasami nawet lepiej niż ludzie. Niektórzy twierdzą, że to duże zagrożenie, że niebawem komputery nas zdominują lub ludzie połączą z SI swoje mózgi. O szansach i zagrożeniach związanych z SI opowiada dr inż. Krzysztof Walas z Instytutu Robotyki i Inteligencji Maszynowej Politechniki Poznańskiej.

PAP Nauka w Polsce: Elon Musk przestrzegł właśnie, że za pięć lat sztuczna inteligencja stanie się sprytniejsza od ludzi. Od tego momentu ma zacząć rozwijać się wykładniczo w takim tempie, że za nią nie nadążymy. Czy to możliwe?

Krzysztof Walas: Myślę, że taki scenariusz jest możliwy i większość osób taki bieg wydarzeń przewiduje. Różnice dotyczą jednak czasu, kiedy to nastąpi, czy będzie to za kilka czy za kilkadziesiąt lat. W tej kwestii toczy się spór i to już nie tylko w środowisku naukowym, ale także w biznesie, który coraz częściej ze sztucznej inteligencji korzysta.

NwP: Czy takie systemy nie napotkają na jakieś ograniczenia, np. związane z poborem energii czy możliwościami sprzętu? Skoro biologia z jakiegoś powodu nie rozwinęła mózgu bardziej, może elektroniczne systemy też nie będą mogły tego zrobić? Z drugiej strony wytwory natury np. nie latają w kosmos, a rakiety tak…

K.W.: Może potrzebne będą nowe architektury procesorów. Wiele mówi się teraz o komputerach kwantowych, które całkowicie zmieniłyby paradygmat obliczeń. Może wręcz się okazać, że na obecne komputery – procesory, pamięci, twarde dyski będziemy patrzeć trochę tak, jak dzisiaj patrzymy na niektóre wytwory techniki z początku XX wieku. Zmiana może być totalna. Na przykład bariery energetyczne mogą okazać się zupełnie inne, niż dzisiaj nam się wydaje.

NwP: Tylko że inteligencja to jeszcze nie to samo, co świadomość. Nie wiadomo tak naprawdę, czym ona jest i jak SI będzie bez niej sobie radzić. Psychologia wskazuje jednak, że niska samoświadomość raczej prowadzi do kłopotów i destrukcyjnych działań.

K.W.: Debata na temat świadomości SI mogłaby trwać kilka dni. To złożone, filozoficzne zagadnienie. Samo zdefiniowanie świadomości jest problematyczne, bo skąd wiemy, czy ktoś jest świadomy, czy nie. Jak to teraz odnieść do maszyny? Naukowcy spierają się, na którym etapie biologiczne organizmy mogą stać się świadome. Przeniesienie tego sporu na sztuczne byty jest jeszcze bardzie karkołomne.

NwP: Świadoma, czy nie, SI może zagrażać – mówią niektórzy. Na razie jednak sztuczna inteligencja rozpoznaje twarze, uczy się stawiać diagnozy medyczne, prowadzić samochód. Dużych niebezpieczeństw tutaj nie widać.

K.W.: Możemy już teraz obserwować, że SI w niektórych wąskich dziedzinach już nas przerasta, bo bardzo dobrze operuje dużymi zbiorami danych. Takie programy mają jednak bardzo specyficzne, ograniczone zadania. Specjaliści debatują natomiast nad tym, czy może powstać system, który będzie posiadał ogólną inteligencję (ang. General Intelligence) i co się stanie, gdy taki system będzie inteligentniejszy od ludzi – czy będzie nam zagrażał.

NwP: Pytanie tylko – jak? Przecież raczej nie pozwolimy mu decydować o odpaleniu głowic jądrowych, jak to miało miejsce w „Terminatorze”.

K.W.: Sztuczna inteligencja już teraz podejmuje pewne decyzje o naszym życiu, choć możemy nie zdawać sobie z tego sprawy. Na przykład często decyduje, czy ktoś dostanie kredyt w banku. Systemy SI, na podstawie zachowań naszych i innych ludzi, rekomendują nam film, który może chcielibyśmy obejrzeć, wybierają dla nas wiadomości czy polecają zakupy.

W samochodach, takich jak np. Tesla, wiele decyzji podejmuje autopilot. Jeśli pozwoli się SI uczyć od przypadkowych ludzi, może zacząć zachowywać się nieprzyjaźnie. Tak było z chatbotem, czyli programem do konwersacji, którego jedną z implementacji przedstawił Microsoft. Firma go odłączyła, ponieważ od użytkowników nauczył się np. rasizmu. W internecie jest np. wiele hejtu. Co by było gdyby jakiś inteligentny system uczył się interakcji z ludźmi analizując wyłącznie internetowe fora?

NwP: No tak, ale te zagrożenia nie wydają się poważne. Chatbot to nie dostęp do broni, czy innych narzędzi, którymi inteligentne komputery mogłyby zaszkodzić ludziom.

K.W.: Widzę tutaj dwie możliwości. Po pierwsze, takie systemy mogą mocno wpływać na ludzi środkami niefizycznymi. Mogłyby nimi manipulować np. z pomocą mediów społecznościowych, nawet na masową skalę.

W ten sposób mogłyby np. nakłaniać ich do nienawiści choćby do sąsiadów czy innej grupy etnicznej. Wyobraźmy sobie taką sytuację w kraju, gdzie dostęp do broni jest łatwy. Sprytny program mógłby teoretycznie tak niektórych ludzi zmanipulować, aby zrobili coś złego. Komputer może nie mieć dostępu np. do broni, ale do ludzi, którzy się nią posługują.

NwP: A druga opcja?

K.W.: Druga opcja dotyczy już działań fizycznych, przez podłączone do sieci roboty. Z pomocą internetu można by w nich np. zmienić algorytmy i takie maszyny mogłyby zrobić coś, co zaszkodziłoby ludziom. Sam czasami myślę o tym, że gdyby całkowicie autonomiczny samochód mnie porwał, nie mógłbym nic zrobić. Oczywiście, kreślę tutaj czarne scenariusze. Mówimy o na razie teoretycznych, ale możliwych zagrożeniach.

NwP: Superinteligentne komputery mogłyby teoretycznie robić różne rzeczy, m.in. dlatego, że byśmy za nimi mentalnie nie nadążali. Wspomniany już Elon Musk twierdzi, że aby temu zapobiec, sami powinniśmy podłączyć się z pomocą chipów do sztucznej inteligencji. Mają do tego służyć takie układy, jak stworzony przez jego firmę Neuralink.

K.W.: W pewnym sensie na co dzień jesteśmy podłączeni do komputera, tylko bardzo wolnym łączem – klawiaturą. Różnica między tym a korzystaniem z wszczepianego chipa będzie taka, jak między chodzeniem na piechotę, a jazdą samochodem czy pociągiem. Przepływ informacji będzie dużo szybszy.

NwP: To z jednej strony może oznaczać łatwy dostęp do zasobów sztucznej inteligencji i komputerów w ogóle, ale z drugiej strony – większą możliwość manipulacji człowiekiem. Tym bardziej, że takie chipy miałyby nawet regulować wydzielanie niektórych hormonów.

K.W.: Zgadza się. Pierwotne struktury mózgu człowieka reagują szybciej niż wyższe, odpowiadające za racjonalne myślenie, bo ewolucyjnie powstały wcześniej. Odpowiadają one m.in. za tzw. reakcję walki lub ucieczki. Ponieważ tak silnie i szybko działają, ludzie często pod wpływem emocji robią coś, czego potem żałują i przepraszają. Oddziaływanie na poziom hormonów wpływałoby na te ośrodki i teoretycznie mogłoby więc być potencjalnie niebezpieczne.

NwP: Możemy, jako ludzkość się jakoś zabezpieczyć?

K.W.: Mówimy o zagrożeniach, ale pamiętajmy, że SI to przede wszystkim bardzo użyteczne narzędzie. Trzeba tylko odpowiednio się nim posługiwać. Na przykład w Unii Europejskiej powstaje kodeks etyczny regulujący rozwijanie SI. Stawia nas to trochę w gorszej pozycji na rynku niż np. USA czy Chiny, ale to chyba właściwe postępowanie.

NwP: Czyli sztuczną inteligencję trzeba dobrze wychować?

K..W: Są takie pomysły, że należy uczyć ją etycznych rzeczy, pokazywać jej wybory prowadzące do szczęścia, dobra. Wtedy, nawet gdy przerośnie ludzi możliwościami, może nagrodą będzie dla niej praca na rzecz dobra ludzkości, a nie coś innego, co mogłoby nam zaszkodzić.

NwP: Nawet wtedy jednak moglibyśmy się znaleźć w jakiejś mierze pod jej kontrolą. To się zwykle ludziom nie podoba.

K.W.: Mogłoby tak się stać, choć można by tak pokierować jej rozwojem, aby była dla ludzi systemem usługowym, doradczym.

NwP: Czy takie założenia da się tak skutecznie wprowadzić w życie, że żaden groźny system się nie wymknie spod kontroli?

K.W.: Może to być trudne, co pokazuje historia różnych badań medycznych. Są ludzie, którzy dochodzą do wniosku, że jak coś da się zrobić, to oni to zrobią, nie zważając na etykę danego przedsięwzięcia.

Podsumowując myślę, że powstrzymanie się od rozwoju sztucznej inteligencji nie jest możliwe, bo musiałby to zrobić cały świat, tak aby żaden kraj, czy korporacja nie zdobyły strategicznej przewagi, tylko dlatego, że nie powstrzymały się od badań. Jednak ważne jest, aby już teraz intensywnie pracować nad implikacjami zastosowań.

Rozmawiał Marek Matacz, PAP – Nauka w Polsce, mat/ agt/

Piotr Sztompke
Polecamy

Powiązane Artykuły