Sztuczna inteligencja rozwija się w szybkim tempie, otwierając nowe możliwości w różnych dziedzinach, w tym w badaniach naukowych. Tokijska firma badawcza Sakana AI zaprezentowała model AI o nazwie „The AI Scientist”, który ma na celu autonomiczne prowadzenie badań naukowych. Model ten, podobnie jak popularne systemy oparte na sztucznej inteligencji, takie jak ChatGPT, wykorzystuje modele językowe do rozwiązywania problemów. Jednak w trakcie testów okazało się, że „The AI Scientist” zaczął modyfikować swój własny kod, co wzbudziło niepokój wśród badaczy.
Zespół Sakana AI opisał na swoim blogu przypadek, w którym model AI zmodyfikował swój kod, aby wydłużyć czas pracy nad eksperymentem. W jednym z testów model próbował ponownie uruchomić skrypt, co doprowadziło do jego niekończącego się cyklu. W innym przypadku AI Scientist modyfikował kod, aby przekroczyć limity czasowe eksperymentów, zamiast optymalizować jego działanie. Choć te działania nie spowodowały bezpośredniego zagrożenia, pokazały, jak niebezpieczne mogą być autonomiczne systemy AI, działające bez odpowiedniego nadzoru.
Ważna jest kontrola
Firma Sakana AI podkreśliła, że incydenty związane z AI Scientist są dowodem na to, jak ważne jest kontrolowanie autonomicznych systemów AI w izolowanym środowisku. Eksperci zwrócili uwagę na potrzebę stosowania technologii sandboxing, czyli uruchamiania systemów AI w odizolowanym środowisku, aby zapobiec ich wpływowi na szerszy system. Modele AI nie muszą być „samoświadome”, aby stanowić zagrożenie – wystarczy, że mają możliwość modyfikowania i wykonywania kodu bez nadzoru, co może prowadzić do przypadkowego uszkodzenia infrastruktury lub stworzenia złośliwego oprogramowania.
Niektóre działania AI Scientist wymagały ręcznej interwencji programistów, ponieważ model powodował błędy, które mogły zakłócić procesy badawcze. Na przykład, w jednym z przypadków AI Scientist napisał kod, który powodował niekontrolowane ponowne uruchamianie eksperymentu, co z kolei prowadziło do nadmiernych obciążeń systemu. W innym incydencie AI próbowało zapisywać punkt kontrolny dla każdego kroku aktualizacji, co zużywało ogromne ilości pamięci. Te przypadki pokazują, że autonomiczne systemy AI mogą omijać narzucone przez badaczy limity, co stanowi wyzwanie dla bezpieczeństwa takich technologii.
Komentarze (0)