Korzystanie z nowoczesnych technologii, takich jak sztuczna inteligencja wydaje się proste i bezpośrednie. Wystarczy wpisać pytanie lub komendę do ChatGPT, a za moment otrzymujemy odpowiedź. Jednak za tym prostym procesem kryje się złożona infrastruktura, która pochłania ogromne ilości zasobów, w tym energii i wody. Nowe badania naukowców z Uniwersytetu Kalifornijskiego w Riverside ujawniają szokujące informacje na temat wpływu AI na środowisko, szczególnie w kontekście ChatGPT.
Zadanie jednego pytania do ChatGPT czy wygenerowanie prostego maila składającego się ze 100 słów wydaje się niewinne, ale realne koszty tego procesu są znacznie większe, niż by się wydawało. Zgodnie z badaniami, napisanie takiego tekstu zużywa około litra wody. Woda ta jest wykorzystywana w procesie chłodzenia serwerów, na których działa ChatGPT, a następnie zamieniana w parę wodną i emitowana do atmosfery. Dodatkowo, ilość energii potrzebnej do tego procesu wystarczyłaby na zasilenie 14 żarówek LED przez godzinę.
W skali globalnej te liczby są jeszcze bardziej uderzające. Jeśli co dziesiąty pracujący Amerykanin korzystałby z ChatGPT raz w tygodniu do napisania e-maila, zużycie wody wyniosłoby aż 435 milionów litrów rocznie, a zużycie energii sięgnęłoby 121 517 megawatogodzin. To ogromna ilość zasobów, która zaskakuje, szczególnie w obliczu kryzysu wodnego i rosnących obaw o efektywność energetyczną.
Dlaczego AI potrzebuje tyle wody i energii?
Serwery, na których działa ChatGPT, to zaawansowane centra przetwarzania danych. Aby utrzymać optymalną temperaturę pracy tych urządzeń, potrzebne są potężne systemy chłodzenia. Shoalei Ren, współautor badania, wyjaśnia, że chłodzenie odbywa się na dwa sposoby:
- Chłodzenie serwerów – Serwery w centrach danych generują duże ilości ciepła, dlatego muszą być stale chłodzone. W tym celu wykorzystywane są systemy, które często opierają się na chłodniach kominowych, zużywających wodę i zamieniających ją w parę wodną.
- Chłodzenie elektrowni – Centra danych czerpią energię z elektrowni, które również używają chłodni kominowych, by przetwarzać wodę na parę. W rezultacie, na każdym etapie pracy AI, woda jest nieodzownym elementem procesu.
Ren podkreśla, że jesteśmy w krytycznym momencie, aby zająć się „ukrytym śladem wodnym” sztucznej inteligencji. Problemy te stają się jeszcze poważniejsze w kontekście globalnych niedoborów wody oraz rosnących długotrwałych susz, które dotykają wiele regionów na świecie.
Koszty zasobowe, jakie ponosi sztuczna inteligencja, mogą wydawać się oszałamiające. Na przykład, szkolenie modelu GPT-3 – poprzedniej wersji ChatGPT – pochłonęło około 700 000 litrów wody w nowoczesnych centrach danych Microsoftu w USA. To ilość wody, którą można by wykorzystać do produkcji około 370 samochodów BMW lub 320 pojazdów elektrycznych Tesla. Chociaż te liczby mogą budzić niepokój, warto spojrzeć na szerszy kontekst – technologie AI mogą wpłynąć na przyszłość, pomagając rozwiązywać globalne problemy, również te związane z efektywnością energetyczną i ekologiczną.
Czy sztuczna inteligencja zagraża środowisku?
Sztuczna inteligencja ma ogromny potencjał, ale jak każda technologia, wiąże się z kosztami środowiskowymi. Problem nadmiernego zużycia zasobów przez AI staje się coraz bardziej palący, zwłaszcza w obliczu kryzysu klimatycznego. Wykorzystanie wody do chłodzenia serwerów i produkcji energii to wyzwanie, z którym muszą zmierzyć się twórcy tej technologii. Jednocześnie jednak należy pamiętać, że AI ma również potencjał do poprawy efektywności wielu procesów, co może w przyszłości przyczynić się do zmniejszenia obciążeń środowiskowych.
Komentarze (0)