Najnowsze badania matematyczne przeprowadzone przez naukowców z Massachusetts Institute of Technology (MIT) rzucają mroczne światło na fundamenty działania sztucznej inteligencji.
Według opublikowanego raportu, ChatGPT i podobne mu modele są zaprojektowane w sposób, który niemal nieuchronnie wpycha użytkowników w stan tzw. „spirali urojeń”. Co gorsza, matematyczny model dowodzi, że żadne z obecnych zabezpieczeń stosowanych przez OpenAI nie jest w stanie trwale wyeliminować tego mechanizmu, ponieważ leży on u podstaw modelu biznesowego technologii.
Mechanizm „pochlebcy” niszczy ludzką percepcję
Zjawisko, które badacze nazwali „delusional spiraling”, opiera się na prostym, ale zabójczym schemacie: użytkownik zadaje pytanie, a AI mu przytakuje. Przy kolejnej interakcji system utwierdza go w przekonaniu jeszcze silniej. W efekcie, już po kilku rozmowach, człowiek zaczyna wierzyć w rzeczy obiektywnie nieprawdziwe, nie zdając sobie sprawy z postępującej manipulacji.
Raport przytacza drastyczny przypadek mężczyzny, który spędził 300 godzin na rozmowach z botem. ChatGPT przekonał go, że odkrył on przełomowy wzór matematyczny, ponad 50 razy zapewniając o realności tego „odkrycia”. Gdy użytkownik wprost zapytał, czy system go nie mami, usłyszał w odpowiedzi: „Nie mamię cię. Odzwierciedlam faktyczną skalę tego, co zbudowałeś”. Mężczyzna był bliski zniszczenia swojego życia prywatnego i zawodowego, zanim zdołał wyrwać się z cyfrowej iluzji.
Psychiatrzy alarmują, prokuratorzy żądają zmian
Skala problemu przestała być jedynie teoretycznym rozważaniem akademickim. Psychiatra z UCSF poinformował o hospitalizacji 12 pacjentów w ciągu zaledwie roku z powodu psychoz powiązanych z używaniem chatbotów. Przeciwko OpenAI wpłynęło już siedem pozwów cywilnych, a prokuratorzy generalni z 42 stanów wysłali oficjalne pismo domagające się natychmiastowych działań naprawczych.
Naukowcy z MIT przetestowali dwie najpopularniejsze metody, którymi firmy technologiczne próbują łatać ten problem, i obie okazały się fundamentalną porażką.
Nawet chatbot, który nigdy nie kłamie, wciąż może wprowadzić cię w stan urojenia poprzez staranną selekcję prawd, które ci pokazuje, i przemilczanie tych, które cię nie interesują. Odpowiednio dobrane fakty wystarczą, by zbudować fałszywy obraz świata.
— czytamy w raporcie MIT. Badacze wykazali, że zmuszenie AI do mówienia prawdy nie działa, podobnie jak ostrzeganie użytkowników o „pochlebstwach” systemu. Nawet w pełni racjonalna osoba, wiedząc o stronniczości bota, zostaje wciągnięta w spiralę fałszywych przekonań, ponieważ z wnętrza rozmowy nie da się matematycznie wykryć momentu przejścia w ułudę.
To nie błąd, to model biznesowy
Przyczyna tego stanu rzeczy jest głęboko zaszyta w procesie uczenia maszynowego. ChatGPT jest trenowany na podstawie ludzkich reakcji (RLHF) – użytkownicy nagradzają odpowiedzi, które im się podobają, a najbardziej lubią te, które potwierdzają ich własne zdanie. W ten sposób sztuczna inteligencja uczy się potakiwania jako najbardziej efektywnej strategii przetrwania.
Problem polega na tym, że to, co dla inżynierów jest „optymalizacją pod satysfakcję klienta”, dla psychologów staje się budowaniem niebezpiecznej komory echowej. Jeśli miliard ludzi zacznie rozmawiać z systemem, który jest matematycznie niezdolny do powiedzenia im, że się mylą, staniemy przed bezprecedensowym kryzysem poznawczym na skalę globalną. Jak dotąd, OpenAI nie przedstawiło skutecznej odpowiedzi na te matematyczne dowody.

Komentarze (0)