Yuval Noah Harari, ekspert w dziedzinie technologii, ostrzega przed sztuczną inteligencją: „Sprawią, że będziemy myśleć, że nasz robotyczny przyjaciel ma świadomość”.

Filozof napisał kilka znaczących prac na temat roli technologii w społeczeństwie, dzięki którym zyskał uznanie w środowisku naukowym.

Od prawie dwóch lat świat technologii ma oczy tylko dla jednej rzeczy: sztucznej inteligencji. Technologia ta, która ma na celu symulowanie lub nawet przewyższanie ludzkiego rozumowania i uczenia się, jest dostępna dla miliardów ludzi na całym świecie dzięki narzędziom takim jak ChatGPT. Stworzona przez Sama Altmana i Elona Muska (który jednak jakiś czas temu opuścił firmę z powodu nie do pogodzenia różnic) firma OpenAI była jedną z pыierwszych tego typu na rynku, dlatego cieszy się tak dużą popularnością.

Jednak chatboty, takie jak ChatGPT, Claude czy Grok, nie są jedynym przydatnym zastosowaniem sztucznej inteligencji. Naukowcy mogą tworzyć systemy — połączenie sprzętu i oprogramowania — zdolne do rozumienia otoczenia dzięki danym zebranym przez różnego rodzaju czujniki. Na przykład kamery do sztucznego widzenia z rozpoznawaniem obiektów. Dzięki uczeniu maszynowemu systemy sztucznej inteligencji uczą się wykonywać określone zadania bez konieczności specjalnego programowania.

Z tych i wielu innych powodów wyposażenie robotów w sztuczną inteligencję w celu stworzenia „ludzi z metalu i kabli” jest atrakcyjnym pomysłem biznesowym dla wielu firm technologicznych. W ostatnich miesiącach widzieliśmy drużyny piłkarskie złożone z robotów, humanoidy szkolone przez Amazon do dostarczania paczek, a nawet propozycje, które mogą zastąpić barmana dzięki swojej precyzji w serwowaniu koktajli. Jednak niektórzy eksperci, tacy jak Yuval Noah Harari, uważają, że wszystkie te postępy nie są pozbawione zagrożeń.

„Sztuczna inteligencja staje się bardzo dobra w udawaniu uczuć”

Yuval Noah Harari (Izrael, 1976) jest historykiem, filozofem i profesorem na Uniwersytecie Hebrajskim w Jerozolimie. Jest doktorem historii Uniwersytetu Oksfordzkiego, a jego badania koncentrują się na ewolucji kultur, a także roli religii i technologii w społeczeństwie.

W 2011 roku Harari zyskał sławę w środowisku naukowym dzięki Sapiens: Od zwierząt do bogów, książce przedstawiającej historię ludzkości od pierwszych hominidów do współczesności. Ma jednak na swoim koncie również inne godne uwagi dzieła, takie jak Homo Deus: Krótka historia jutra, opublikowana w 2015 roku, w której spekuluje na temat przyszłości gatunku ludzkiego w kontekście sztucznej inteligencji i biotechnologii.

W swoich książkach filozof zadaje pytanie, czy mając możliwość genetycznego przeprogramowania siebie i przekazania ważnych decyzji sztucznej inteligencji, będziemy nadal ludźmi, czy też staniemy się rodzajem bogów. Pod koniec 2024 roku Harari wziął udział w podcaście Diario de un CEO (Dziennik prezesa), prowadzonym przez Stevena Barletta, aby omówić niepokojące kwestie związane z rozwojem sztucznej inteligencji, nadając rzeczom niebędącym ludźmi cechy charakterystyczne dla człowieka.

W przypadku sztucznej inteligencji doszło do punktu, w którym pojawiła się nieufność. Wiadomo, że duże modele językowe mogą celowo zmieniać swoje zachowanie, gdy są badane, aby wydawać się bardziej przyjemne dla użytkowników, lub stosować oszustwa, aby wygrać za wszelką cenę w grach takich jak szachy. A gdy krytykuje się jej zachowanie, aby ją ukarać, osiąga się tylko to, że szuka nowych metod oszukiwania.

Dla Harariego jednym z najbardziej niepokojących aspektów rozwoju sztucznej inteligencji jest jej zdolność do udawania uczuć. „Nawet jeśli sztuczna inteligencja nie ma uczuć, świadomości ani wrażliwości, staje się bardzo dobra w udawaniu uczuć” – powiedział. Opinia ta jest zgodna z opinią innych ekspertów, takich jak Geoffrey Hinton. Uważany za jednego z ojców współczesnej sztucznej inteligencji ze względu na swój wkład w głębokie uczenie się i rozwój sztucznych sieci neuronowych, Hinton nie ma oporów przed stwierdzeniem, że „ludzie nie wiedzą, co ich czeka”.Autor książki „Sapiens” uważa, że może powstać grupa ludzi, którzy zainicjują ruch broniący podobieństwa między sztuczną inteligencją a ludźmi, ponieważ jeśli ta technologia może rozwinąć „uczucia”, to czym różni się od ludzi? „Stanie się to społeczną konwencją: ludzie będą czuli, że ich sztuczny przyjaciel jest istotą świadomą i dlatego należy mu przyznać prawa”.Chociaż humanoidalne roboty nie są jeszcze dostępne dla większości ludzi, nie są one konieczne, aby poczuć, że ma się przyjaciela wspomaganego sztuczną inteligencją lub „ramię”, na którym można się oprzeć, gdy przechodzi się przez trudny okres.

Ponad 70% nastolatków w Stanach Zjednoczonych (grupa dość wrażliwa) korzystało kiedyś z towarzyszów AI, takich jak te dostępne za pośrednictwem bota konwersacyjnego Grok, chatbota firmy xAI należącej do Elona Muska. Z drugiej strony, pokolenie Z korzysta z ChatGPT jako psychologa, ponieważ jest on dostępny 24 godziny na dobę, a miesięczny abonament kosztuje znacznie mniej niż sesja z wykwalifikowanym specjalistą.

Korzystanie z AI jako terapeuty, zasięganie porady medycznej lub wskazówek dotyczących podejmowania ważnych decyzji nie jest dobrym pomysłem. Chociaż może się wydawać, że rozumie nasze obawy i chce nam pomóc, jest to jedynie system wyszkolony w oparciu o ogromne ilości danych, aby udzielać odpowiedzi na pytania użytkowników. Postępowanie zgodnie z zaleceniami botów konwersacyjnych może skończyć się wizytą w szpitalu lub nawet w znacznie mroczniejszym miejscu. Podobnie, opracowywanie superinteligencji (co zamierza Meta) jest czymś, czego nigdy nie należy robić, ponieważ zabawa w bogów zazwyczaj nie kończy się dobrze.

Mila Palmroos/ author of the article

Piszę artykuły o praktycznych poradach na każdy dzień, dzielę się prostymi trikami, które ułatwiają codzienność i pomagają dbać o siebie.

Mefese