Która sztuczna inteligencja jest bardziej ekologiczna? Badanie ujawnia różnice w emisjach

Image by Emiliano Vittoriosi, from Unsplash

Która sztuczna inteligencja jest bardziej ekologiczna? Badanie ujawnia różnice w emisjach

Przeczytasz w: 3 min

Nowe badania pokazują, jak zaawansowane modele AI, które wykorzystujemy w naszym codziennym życiu, generują znaczny wpływ na środowisko.

W pośpiechu? Oto najważniejsze fakty:

  • Zaawansowane modele AI emitują nawet do 50 razy więcej CO₂ niż prostsze.
  • Rozumujące AI, takie jak o3 i R1, zużywają więcej energii na dłuższe odpowiedzi.
  • Pytania oparte na logice, takie jak matematyka czy filozofia, znacząco zwiększają emisję.

Duże modele językowe (Large Language Models – LLMs) zaprojektowane do głębokiego rozumowania – takie jak o3 od OpenAI, Claude od Anthropic oraz R1 od DeepSeek – generują 50 razy więcej emisji dwutlenku węgla niż podstawowe modele AI, odpowiadając na identyczne pytania.

„Wpływ na środowisko kwestionowania wyszkolonych LLMów jest silnie determinowany przez ich podejście do rozumowania,” powiedział Maximilian Dauner, główny autor badania opublikowanego 19 czerwca w Frontiers in Communication. „Odkryliśmy, że modele z umiejętnością rozumowania generowały nawet do 50 razy więcej emisji CO₂ niż modele dające zwięzłe odpowiedzi,” dodał.

Badanie pokazuje, że te emisje pochodzą z ogromnej mocy obliczeniowej wymaganej do przetwarzania zaawansowanych zapytań, takich jak pytania dotyczące obszarów mocno obciążonych logiką, takich jak algebra i filozofia.

Badacze wyjaśniają, jak te modele rozumowania korzystają z metody nazywanej „łańcuchem myślowym„, w której AI rozkłada problem na logiczne kroki, co odzwierciedla ludzkie podejścia do rozwiązywania problemów. Więcej tokenów w procesie generuje dłuższe odpowiedzi, które z kolei zużywają dodatkową energię.

Badacze przeprowadzili swoją analizę, przepuszczając 1000 pytań przez 14 modeli LLM. Zużycie energii określili za pomocą karty graficznej NVIDIA A100 i zakładając, że każda kilowatogodzina generuje 480 gramów CO₂.

Analiza wykazała, że średnio, modele oparte na rozumowaniu generowały 543,5 tokenów jako wynik w każdej odpowiedzi, podczas gdy prostsze modele generowały tylko 37,7 tokenów. Najdokładniejszy model, Deep Cogito (z 72 miliardami parametrów), miał również jeden z największych śladów węglowych.

„Obecnie, widzimy wyraźny kompromis między dokładnością a zrównoważonym rozwojem, który jest nieodłączny dla technologii LLM” – tłumaczyła Dauner. „Żaden z modeli, które utrzymały emisję poniżej 500 gramów równowartości CO₂, nie osiągnął wyższej niż 80% dokładności” – dodała.

Na przykład, odpowiedzenie na 60 000 pytań za pomocą modelu R1 od DeepSeek wyemitowałoby tyle samo CO₂, co lot w obie strony pomiędzy Nowym Jorkiem a Londynem. Tymczasem model Qwen 2.5 od Alibaba Cloud mógłby zapewnić podobną precyzję przy jednej trzeciej emisji.

To nie chodzi tylko o emisje na każde pytanie, mówią badacze, że szersze zmartwienie dotyczy skali. Pojedyncze pytanie może wyemitować tylko kilka gramów CO₂, ale pomnóż to przez miliardy użytkowników, a ślad staje się olbrzymi.

The New York Times informuje, że raport z 2024 roku, przygotowany przez Departament Energii USA, przewiduje, że centra danych będą zużywać do 12% krajowego zapotrzebowania na energię elektryczną do 2028 roku. Oznacza to potrójny wzrost w porównaniu z poziomami z 2022 roku, gdzie kluczową rolę odgrywa AI.

Więc co mogą zrobić użytkownicy?

„Używaj AI, gdy ma to sens. Nie używaj AI do wszystkiego,” powiedziała profesor informatyki Gudrun Socher, jak donosi The Washington Post. Dla podstawowych pytań, wyszukiwarki internetowe są zazwyczaj szybsze i zużywają znacznie mniej energii. Wyszukiwanie w Google zużywa około 10 razy mniej energii niż komenda ChatGPT, według Goldman Sachs.

Dauner się zgadza. „Jeśli użytkownicy znają dokładny koszt CO₂ ich wyników generowanych przez AI, takich jak na przykład swobodne przekształcanie się w figurkę akcji, mogliby być bardziej selektywni i przemyśleni w kwestii kiedy i jak korzystają z tych technologii.”

Eksperci podkreślają, że do prostych zadań powinniśmy wybierać mniejsze modele, a dłuższe, bardziej wydajne używać tylko wtedy, gdy jest to konieczne. Zwięzłość poleceń i odpowiedzi również pomaga zmniejszyć zużycie energii. W końcu wybór nie sprowadza się tylko do szybkości czy precyzji, ale również do odpowiedzialności.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię