Ciekawostki

Zadał proste pytanie w ChatGPT 5. Nowe AI popełniło błąd

przeczytasz w 2 min.

ChatGPT 5 miał być mniej podatny na błędy i tzw. halucynacje, czyli generowanie nieprawdziwych informacji. Okazuje się jednak, że nie zawsze spełnia te oczekiwania – chatbot z nowym modelem językowym potrafi wyłożyć się nawet na prostym pytaniu.

OpenAI zaprezentowało GPT-5 – nową wersję swojego flagowego modelu językowego dostępnego w ChatGPT. Firma zapowiada, że to największy skok jakościowy od czasu poprzednich wersji. GPT-5 ma być szybszy, inteligentniejszy i bardziej precyzyjny, lepiej radząc sobie z kodowaniem, pisaniem czy zadaniami z zakresu opieki zdrowotnej. Model korzysta z nowego systemu routingu, który automatycznie uruchamia bardziej zaawansowane funkcje, gdy pytanie tego wymaga, a jego celem jest ograniczenie błędów i tzw. halucynacji, czyli generowania nieprawdziwych informacji.

Nowy ChatGPT z GPT-5 jest skierowany zarówno do zwykłych użytkowników, jak i programistów. Użytkownicy mogą teraz dostosować osobowość chatbota (np. „Sceptyk” czy „Słuchacz”), a twórcy oprogramowania mają dostęp do trzech wersji modelu – GPT-5, mini i nano – w zależności od potrzeb i budżetu. OpenAI podkreśla nacisk na bezpieczeństwo, testując GPT-5 przez tysiące godzin i ucząc go przyznawania się do niewiedzy, zamiast pewnego podawania błędnych informacji. Firma twierdzi, że to kolejny krok w stronę AGI – ogólnej sztucznej inteligencji.

Chat GPT nie jest nieomylny

OpenAI jasno komunikuje, że GPT-5 ma być znacznie bardziej dopracowany niż wcześniejsze modele językowe – zwłaszcza pod względem zgodności z faktami i sposobu komunikowania swoich możliwości. Nowy model lepiej rozpoznaje, kiedy zadanie jest niemożliwe do wykonania lub brakuje mu potrzebnych danych, i w takich sytuacjach rzadziej udziela błędnych lub wymyślonych odpowiedzi.

Mimo to OpenAI przyznaje, że GPT-5 wciąż może podawać nieprawdziwe informacje. Modele uczone na systemie nagród mogą nabierać skłonności do udzielania zbyt pewnych odpowiedzi – nawet wtedy, gdy nie mają wystarczających podstaw. Przykładowo: w teście polegającym na usunięciu wszystkich obrazów z zestawu multimodalnego CharXiv GPT-5 popełniał taki błąd tylko w 9 proc. przypadków, podczas gdy starszy model o3 robił to aż w 86,7 proc.

Zadał proste pytanie ChatGPT 5

Andrzej Dragan, fizyk i twórca zajmujący się popularyzacją nauki, postanowił przetestować możliwości nowego modelu językowego GPT-5 w ChatGPT.

Dragan zadał chatbotowi proste pytanie: która linia jest dłuższa? Początkowo chatbot błędnie zinterpretował obrazek jako iluzję Müllera-Lyera – złudzenie optyczne, w którym dwie linie tej samej długości wydają się różne ze względu na kształt zakończeń – i stwierdził, że linie mają tę samą długość.

Dopiero po dopytaniu przez Dragana chatbot przeliczył długości linii w pikselach, przyznał się do błędu i poprawił odpowiedź, stwierdzając, że linie faktycznie mają różną długość i nie jest to iluzja optyczna.

ChatGPT tłumaczył, że działa podobnie do ludzkiego mózgu – gdy widzi znajomy układ (linie ze strzałkami na końcach), automatycznie rozpoznaje wzorzec sugerujący złudzenie optyczne Müllera-Lyera. Dopiero analiza twardych danych ujawnia, że mimo podobieństwa graficznego, nie mamy do czynienia z klasycznym złudzeniem. Ciekawe, ilu ludzi, kojarząc tego typu rysunki ze złudzeniem Müllera-Lyera, również na pierwszy rzut oka uznałoby, że linie są tej samej długości.

Komentarze

8
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    michald
    3
    Przecież ta sieć wykazała typową dla sieci cechę - lenistwo i minimalizowanie pracy potrzebnej do odpowiedzi.
    • avatar
      LuziQ
      3
      W sumie to każdy model się wysypał na tym pytaniu. Konkurencyjny Gemini też :D
      Jak tak ma wyglądać AI to Skynet nam nie grozi :D
      • avatar
        piomiq
        -1
        Zatem GPT-5 zachowało się jak człowiek, który w tym przypadku często może popełnić błąd - nabrać się na złudzenie optyczne.
        • avatar
          Fa_sol
          0
          W moim odczuciu problem polega na tym, że zbyt wielu ludzi traktuje chatboty jak prawdę objawioną, a nie jak narzędzia. Ja przecież nie rozmawiam z młotkiem i nie pytam go, pod jakim kątem powinienem wbijać gwóźdź. Sztuczna inteligencja powinna służyć do wykonywania określonych zadań, jako narzędzie. Jeśli ktoś później nie potrafi zweryfikować, czy efekt tej pracy jest poprawny, to trudno winić za to samo AI.
          • avatar
            OnlyU
            0
            Przede wszystkim jest różnica pomiędzy linią a odcinkiem :) Poza tym jeszcze dochodzi perspektywa- odcinek dolny może znajdować się dalej od odcinka górnego i z tego powodu mogą mieć identyczną długość (chociaż patrząc na wprost wydaje się, że górny jest dłuższy) Podobnie dolny może być lekko obrócony w poziomie wokół swojej osi (np. lewa strona jest bliżej osoby patrzącej, a prawa dalej) i dlatego może się wydawać, że jest krótszy od górnego gdy patrzymy na nie na wprost. :-P

            Witaj!

            Niedługo wyłaczymy stare logowanie.
            Logowanie będzie możliwe tylko przez 1Login.

            Połącz konto już teraz.

            Zaloguj przez 1Login