Ile energii zużywa ChatGPT?

#AI #centradanych #chatgpt #chatbot #LLM #sztucznainteligencja #Microsoft

Trudno oszacować, ile energii potrzebują systemy AI oraz jaki jest ich wpływ na środowisko. Wiadomo, że pobierają prąd i produkują CO2. Amerykańska naukowczyni Emma Strubell bada to zagadnienie jako jedno z niewielu. Według jej szacunków wytrenowanie jednego modelu językowego produkuje mniej więcej tyle CO2, co 5 samochodów spalinowych przez cały okres ich użytkowania. Lub 2/3 tego, co wytwarza człowiek w ciągu całego życia.

Wyliczenia z poszczególnych źródeł mocno się różnią, a same firmy dzielą się nimi niechętnie. Dochodzą też kwestie związane z czasem potrzebnym na wytrenowanie modelu – czym innym jest stworzenie technologii od zera, czym innym “jedynie” dodanie nowej funkcji, a czymś jeszcze innym dokonanie skoku z jednej wersji do drugiej. Nie wiadomo np., ilu szkoleń potrzebowało OpenAI, by rozwinąć ChatGPT-3.5 do ChatGPT-4. To wciąż dobrze strzeżona tajemnica firmy. Eksperci Google'a uspokajają, że zużycie energii przez LLM osiągnęło już szczyt i teraz będzie spadać – jednocześnie Google pracuje nad własnym ChatBotem.

Start-up Hugging Face, właściciel modelu językowego BLOOM opublikował informacje, wedle której trening technologie wyemitował do atmosfery 25 ton CO2, a uwzględniając produkcję komponentów i infrastrukturę – 50 ton. Austriacka Agencja Środowiska podała, że w 2021 roku w Austrii wyemitowano 77,5 mln ton ekwiwalentu CO2 (przypada 8,5 tony na osobę). BLOOM wytrenowano bazując na francuskim klastrze komputerowym zasilanym energią jądrową – gdyby trenowano go w USA czy w Chinach, produkcja CO2 byłaby odpowiednio wyższa

Szkolenie ChatuGPT firmy OpenAI powoduje już większą emisyjność i zużywa więcej zasobów. Według badaczy i badaczek z Google'a oraz Uniwersytetu w Berkeley to odpowiednio 552 tony emisji CO2 i zużycie 1287 megawatogodzin energii – czyli tylu, ile 320 czteroosobowych gospodarstw domowych zużywa w ciągu roku. Pierwszą wersję generatora obrazów Stable Diffusion trenowano przez 200 000 godzin w centrach danych AWS firmy Amazon na wschodnim wybrzeżu USA, co miało doprowadzić do wyprodukowania 15 ton ekwiwalentu CO2.

Jednak dla środowiska trening sztucznej inteligencji to tylko część problemu. Osobną stanowi samo jej wykorzystanie – uwzględniając, że po pięciu dniach od premiery z ChatuGPT skorzystało milion osób, a po 2 miesiącach aktywnie używało go ponad 100 mln użytkowników. Żeby osiągnąć podobny efekt Instagram potrzebował 2,5 roku, zaś TikTok – 9 miesięcy. Portal Futurezone.at zapytał o zdanie informatyczkę z Politechniki Wiedeńskiej Ivonę Brandic, od lat zajmującą się kwestiami chmury obliczeniowej i efektywności energetycznej systemów IT. Naukowczyni przestrzega przed lekceważeniem zużycia energii przez nowe technologie: “To, co często się bagatelizuje, to koszty sieciowe. Za każdy razem, gdy miliony ludzi korzystają z ChatuGPT, odbywa się transfer danych. I to dodatkowo do wszystkich innych rzeczy, które już robimy w naszej sieci”.

A co z centrami danych?

W wielu miejscach świata centra danych pracują pełną parą. Amazon i Microsoft planowały postawić swoje centra danych w Irlandii, jednak uwzględniając, jak dużo energii pochłaniają tego typu przedsięwzięcia, Irlandia odmówiła. Tamtejszy operator sieci energetycznej obawiał się blackoutu. Już teraz bowiem centra pochłaniałyby 11% całkowitego zapotrzebowania kraju na energię elektryczną, a przy utrzymaniu ich obecnego tempa ekspansji – w 2030 roku udział ten wzrósłby do 1/3. Facebook czy Google już teraz starają się budować centra danych w miejscach, w których do dyspozycji mają sporo “zielonej” energii.

Globalny sektor IT odpowiada szacunkowo za 2 do 4% światowej emisji gazów cieplarnianych. AI stanowi tu więc niewielki odsetek, ale jego rola prawdopodobnie wzrośnie.

Tekst na podstawie: https://futurezone.at/science/energie-chatgpt-kuenstliche-intelligenz-co2-strom-sprachmodelle-emissionen-klima/402423695