(Nie)omylna sztuczna inteligencja

Sztuczna inteligencja kojarzyć nam się może z czymś idealnym, co z powodzeniem mogłoby się mierzyć z człowiekiem. Nie jest ona jednak aż tak perfekcyjna. Wszystko przez ludzką arogancję!

Jak wyjaśnia informatyk, algorytmy sztucznej inteligencji są z założenia niedoskonałe i mogą się mylić. Wiele jest takich kwestii, które zamknąć można w algorytmie. Nie we wszystkich przypadkach jest to jednak możliwe. Trzeba też zaznaczyć, że są takie obszary życia człowieka, na które trudno odpowiedzieć jakimkolwiek algorytmem. Z tego powodu, że albo jest on zbyt złożony albo zwyczajnie go nie znamy.

Na czym polegają takie algorytmy? Można to zobaczyć na przykładzie gry w szachy. Każdy kolejny ruch maszyny jest poprzedzony analizą, która ma sprawdzić wszystkie możliwe ruchy. Po tym dopiero wybiera ten najlepszy i go wykonuje. Nie zawsze dzieje się to w wystarczająco krótkim czasie. Ten proces może bardzo długo trwać. W algorytmie sztucznej inteligencji częściowo przeszukiwana jest przestrzeń potencjalnych rozwiązań, czyli możliwych posunięć. A częściowo algorytm odwołuje się do tzw. reguł kciuka, czyli heurystyk.

To pewne uproszczone reguły, jakie można skonstruować dzięki obserwowaniu zdarzeń w otaczającym świecie. Na przykład możemy na podstawie wielu rozgrywek stwierdzić, czy w szachach bardziej opłaca się poświęcić skoczka czy gońca, zdobyć pole lub zbić figurę.

Na podstawie wiedzy eksperta, a także wyników obserwacji i doświadczeń powstaje przybliżony model, który pokazuje, co w danej sytuacji program powinien wykonać. Nie zawsze jednak metody te się sprawdzają. Algorytm musi być ciągle ulepszany, tylko dzięki temu maszynie uda się działać sprawniej.

Ci, którzy obawiają się, że sztuczna inteligencja niebawem nas prześcignie, mogą być spokojni. Naukowcy twierdzą, że są obszary, w których jest ona lepsza jednak nie jest tak we wszystkich kwestiach. Ludzki umysł ma bardzo wiele umiejętności i nie jest aż tak wyspecjalizowany, jak programy komputerowe. Obecny stan techniki nie pozwala na zbudowanie czegoś, co przypominałoby „sztuczny umysł”. Twierdzi tak informatyk prof. Mieczysław Kłopotek. Mówi jednak o tym, że są z tym związane pewne wątpliwości.

– Według mnie największym zagrożeniem jest presja czasu przy rozwoju nowego oprogramowania. Pośpiech i nadmierna pewność siebie może budzić pokusę skracania długotrwałych procedur testowania przed użyciem w urządzeniach, od których zależy ludzkie życie – mówi prof. Kłopotek.

Takie zachowania naukowców mogą prowadzić do tragedii. Co więcej, może to także prowadzić do zagłady ludzkości. Wszystko zależy od nas i od tego, na ile precyzyjnie podejdziemy do tematu. Okazuje się zatem, że winne mogą być nie tylko algorytmy, ale także arogancja i niedostosowanie naukowców.

Źródło: www.naukawpolsce.pap.pl

Ela Makos

Autor

Ela Makos

Polecamy

Powiązane Artykuły