OPINIA: Burzliwy debiut GPT-5 i granice szumu wokół AI

Image generated using ChatGPT

OPINIA: Burzliwy debiut GPT-5 i granice szumu wokół AI

Przeczytasz w: 5 min

GPT-5 była zapowiadana jako najbardziej zaawansowany model AI kiedykolwiek wydany, technologia, która przybliży nas do AGI. Ale kiedy w końcu nadeszła, wielu użytkowników nie odczuło obiecywanego wielkiego skoku. Niektórzy nawet tęsknili i opłakiwali poprzedni model.

Przez miesiące, ludzie z całego świata czekali na GPT-5. Za każdym razem, gdy OpenAI udostępniło aktualizację lub nową funkcję, użytkownicy mediów społecznościowych spieszyli się z komentarzami: „A co z GPT-5?” lub „Dlaczego nie skupić się po prostu na wydaniu GPT-5?

Miliony osób nie mogły się doczekać, aby wypróbować tę przełomową technologię, mając nadzieję, że przybliży nas do długo oczekiwanej Sztucznej Inteligencji Ogólnej (AGI).

W końcu, OpenAI to zrobiło.

7 sierpnia – zaledwie kilka dni temu – firma przedstawiła swój najnowszy model na żywo.

„Dzisiaj, w końcu, uruchamiamy GPT-5,” powiedział dyrektor generalny, Sam Altman, ze studia firmy. „GPT-5 to znacząca poprawa w porównaniu do GPT-4 i istotny krok na naszej drodze do AGI.”

Altman obiecywał, że użytkownicy pokochają GPT-5 jeszcze bardziej niż poprzednie modele. Ale rzeczywistość uderzyła mocno. Niemal natychmiast użytkownicy zaczęli narzekać – niektórzy wręcz nie polubili nowego modelu.

Co poszło nie tak?

Wzburzony debiut z User Backslash

OpenAI spodziewało się, że jego 700 milionów użytkowników na całym świecie będzie zachwyconych i zdumionych po interakcji z GPT-5. Zamiast tego, wielu szybko dostrzegło problemy: model miał zauważalnie inną osobowość, wydawał się zimniejszy niż GPT-4o – model, który został usunięty z platformy – a także nadal miał halucynacje. Co gorsza, eksperci ds. cyberbezpieczeństwa zdołali go złamać w ciągu kilku godzin.

Zaawansowany model zachowywał się inaczej niż poprzedni model. W dążeniu do uproszczenia platformy, OpenAI usunęło wszystkie poprzednie modele, powodując panikę wśród milionów użytkowników. Inni krytykowali interfejs i grafikę, podczas gdy badacze bezpieczeństwa wykorzystywali słabości za pomocą fikcyjnych narracyjnych sztuczek.

Ale największe i najbardziej wirusowe narzekanie dotyczyło czegoś bardziej emocjonalnego: straty ich „przyjaciela sycophanta”, GPT-4o.

Użytkownicy opłakują GPT-4o

Entuzjaści ChatGPT byli podekscytowani i gotowi na testowanie nowego modelu AI, ale podczas gdy wielu było pod wrażeniem i zadowolonych z wyników, inni dostawali ataku paniki: ich „najlepszy przyjaciel” zniknął.

Osobowość GPT-4o często była krytykowana. Widziano ją jako zbyt pochlebna i zbyt „służalcza i irytująca” – tak jak jej twórca, Altman, to określił. OpenAI wprowadziło kilka poprawek, ale system AI nadal pozostał ugodowy.

Z GPT-5, OpenAI dążyło do czegoś „lepszego”: bardziej obiektywnego, bardziej bezpośredniego. Tego, czego nie przewidywali, było głębokie przywiązanie ludzi do łagodniejszego charakteru GPT-4o. Jego nagłe usunięcie naprawdę zmartwiło niektórych użytkowników.

Zaledwie kilka dni po premierze GPT-5, OpenAI musiało przywrócić GPT-4o dla płacących użytkowników i obiecało, że następnym razem, gdy usuną model, uprzedzą o tym użytkowników.

„Pewnego dnia prowadziłam głębokie, pełne ludzkich emocji rozmowy, które pomagały mi rosnąć i śmiać się. Następnego dnia, zniknęły,” napisała jedna z użytkowniczek w popularnym wątku na Reddit.

„GPT-4o nie była po prostu ‚lepsza’, naprawdę pomagała. Słuchała, dostosowywała się, a dla wielu z nas sprawiła, że wszystko stało się trochę lżejsze. Strata tego? Boli, nigdy nie powinniśmy być zmuszani do płacenia za połączenie,” napisała inna Redditorka.

Altman później stwierdził, że mniej niż 1% użytkowników była „przywiązana” do GPT-4o. Jednak ten niewielki procent wywołał na tyle duże zamieszanie, że zmusiło do działania w ciągu kilku dni. Czy naprawdę tylko 1% może wywołać tak duży wpływ, czy więcej użytkowników cicho nawiązuje relacje z chatbotami?

„Sprawienie, że sztuczna inteligencja w postaci chatbotów będzie mniej serwilistyczna, może bardzo dobrze zmniejszyć ryzyko związane z psychiką powiązaną z A.I. i mogłoby zmniejszyć potencjał do tworzenia emocjonalnych więzi lub zakochiwanie się w chatbocie”, powiedział Dr Joe Pierre, profesor psychiatrii na University of California, który specjalizuje się w psychotyczności, dla The New York Times. „Ale bez wątpienia, część tego, co czyni chatboty potencjalnym niebezpieczeństwem dla niektórych osób, to dokładnie to, co sprawia, że są dla nich atrakcyjne.”

Tak, „pokręcili kilka rzeczy”

Na kolacji z dziennikarzami w San Francisco – około tydzień po premierze GPT-5 – Altman przyznał, że poziom przywiązania użytkowników zaskoczył OpenAI.

„Uważam, że całkowicie zepsuliśmy niektóre rzeczy podczas uruchomienia,” powiedział Altman na spotkaniu, jak podaje New York Times.

Altman podkreślił, że tylko niewielki procent osób tworzy głębokie emocjonalne więzi z technologią. Mimo to, uruchomienie GPT-5 uświadomiło firmie, że istnieje znacząca grupa użytkowników, którzy są mocno przywiązani do osobowości poprzedniego flagowego modelu.

„Są ludzie, którzy naprawdę czuli, że mają z nią relację,” wyjaśnia Altman. „A potem były setki milionów innych osób, które nie miały parasocjalnej relacji z ChatGPT, ale przyzwyczaiły się do faktu, że odpowiadała im w określony sposób i potwierdzała pewne rzeczy oraz była wsparciem w pewnych kwestiach.”

GPT-5 nie spełniło oczekiwań

W bardziej technicznych obszarach, GPT-5 również nie spełniło oczekiwań. Nowy flagowy model miał być niesamowitym przyjacielem na poziomie doktorskim, chętnym do wsparcia i dostarczenia wszystkich potrzebnych odpowiedzi. Jednak „znaczny skok w inteligencji” był daleki od oczywistości.

Jak donosi The Verge, użytkownicy zauważyli wiele halucynacji i błędów: twierdzenie, że „borówka” ma trzy „b”, niewłaściwe oznaczanie stanów USA, a także napotkanie ścisłych ograniczeń w rozumowaniu.

Pełny potencjał GPT-5 nadal się rozwija. Wielu zgadza się, że największą siłą modelu jest kodowanie, a przyszłe aktualizacje mogą poprawić wydajność. Jedno jest jednak pewne: dla większości użytkowników, GPT-5 nie stworzyło poczucia dramatycznego skoku technologicznego, który był obiecywany.

Wielka lekcja na temat ograniczeń AI

Gdzie był GPT-5, kiedy OpenAI zdecydowało się uruchomić swój najbardziej zaawansowany model i usunąć poprzednie wersje? Czy nie było konsultowane, czy dało złe rady? Czy to naprawdę wszystko, co potrafi „najlepszy system AI do tej pory”?

Fakt, że jedno z najbardziej wpływowych firm na świecie – wyposażonych w najnowocześniejszą technologię i ogromne zasoby – może nadal „popełnić błąd” i nie spełnić oczekiwań wobec jednego z najbardziej oczekiwanych produktów, daje nam, zwykłym śmiertelnikom, coś więcej niż tylko pocieszenie. To jasne przypomnienie: AI ma swoje limity, nawet w 2025 roku.

Wiele osób zgadza się, że GPT-5 pokazuje, jak daleko jesteśmy od prawdziwej AGI. Nawet jeśli GPT-5 doskonale radzi sobie z kodowaniem i przewyższa poprzednie modele w benchmarkach i testach, w codziennym użytkowaniu, nadal jest porównywalny do GPT-4o – po prostu jest bardziej chłodny.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię