Ciekawostki

Dosyć kłamstw? ChatGPT przyzna się do błędu... kiedyś

przeczytasz w 2 min.

Zdarzyło ci się, że ChatGPT odpowiedział na twoje pytanie niezgodnie z prawdą? Jeśli tak, to OpenAI pracuje nad rozwiązaniem, które wprowadzi w tryby algorytmu trochę wstydu i poczucia winy. Wszystko po to, aby otrzymywane odpowiedzi były jak najdokładniejsze.

Chatboty AI mają to do siebie, że sprawiają wrażenie idealnie zorientowanych w tematach, o które je zapytamy. Jednocześnie ich praca opiera się o modele językowe, których głównym celem jest brzmieć przekonująco, a niekoniecznie mówić prawdę. Trzy lata po premierze ChataGPT nie wszyscy zdają sobie sprawę z tej zależności. Badacze też nie do końca wiedzą, co tak naprawdę dzieje się w “głowie” modeli sztucznej inteligencji. 

OpenAI, które monentami stoi na froncie przemian związanych ze sztuczną inteligencją, stoi przed dużym wyzwaniem. Nie chodzi tylko o płynną tranzycję z organizacji non-profit na firmę zarabiającą na swoim produkcie. Przez ostatnie miesiące inżynierowie firmy intensywnie pracują nad rozwiązaniem palącej kwestii prawdomówności ChataGPT. 

Jak zmusić ChatGPT do mówienia prawdy?

W obecnej formie chatboty działają coraz lepiej, ale nie zawsze wynika to ze świadomych decyzji inżynierów. W terminologii fachowej przyrównuje się je do czarnych skrzynek: rzadko kiedy wiadomo, dlaczego dane procesy zachodzą w ten sposób. Stąd też biorą się tzw. halucynacje, czyli momenty, w których model zmyśla informacje i podaje jako faktyczne.

MIT Technology Review rzuca światło na nową metodę walczenia z tym procederem. W tym celu inżynierowie OpenAI stworzyli sekcję “wyznań”. Poza standardowym zapisem procesu, przez jaki przechodzi model, by podać odpowiedź, na jej końcu ChatGPT przyznaje się do tego, jak mocno trzymał się instrukcji, jakie sobie wyznaczył. W efekcie może przyznać się do błędu jeszcze zanim zwrócimy mu uwagę, że podał niewłaściwe informacje. 

ChatGPT nadal będzie potrzebował ludzkiej kontroli

Rozwiązanie jest w fazie testowej i podlega ciągłym modyfikacjom, a inżynierowie OpenAI nie zakładają, że w obecnej formie dotrze ono do końcowych, konsumenckich modeli ChataGPT. Największe wyzwanie stanowi obecnie znalezieni erozwiązania, które pozwoli modelom uzyskać świadomość błędu.

Chat GPT od OpenAIChatGPT od OpenAI ma problemy z prawdą. Jak zresztą każdy chatbot AI

Duże modele językowe jak GPT skupiają się na wielu aspektach odpowiedzi jednocześnie. Ich końcowym celem jest dostarczenie do odbiorcy informacji w odpowiednim czasie, zachowując przy tym merytorykę, spójność językową oraz przydatność. Gdy czas jest ograniczony, algorytmy ustalają priorytet wykorzystania mocy obliczeniowej celem uzyskania dobrze wyglądającej odpowiedzi. 

Ponadto modele językowe nie mają zdolności podejrzewania nieprawdy, którą nam udaje się nabywać przez interakcje z ludźmi czy odczytywanie sygnałów zewnętrznych. W obliczu ścian tekstu używanych do ich trenowania, pojawiają się problemy ze zrozumieniem różnicy między źródłem szczegółowo opisującym fakty, a takim, które korzysta chociażby ze skrótów myślowych. Do tego modele mają tendencję do chodzenia po linii najmniejszego oporu, gdy chodzi o wybieranie odpowiedzi. Dlatego w dalszym ciągu kluczową rolę odegra czynnik ludzki. Do tego czasu sprawdźcie nasz poradnik, jak korzystać z ChatGPT.

Źródło: MIT Technology Review

Komentarze

4
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    piomiq
    1
    A 90% dzisiejszych "newsów" to zwykły marketingowy bełkot. No to rzeczywiscie portal IT/technologiczny. Brawo.
    • avatar
      piomiq
      0
      Całkiem rzetelny artykuł, bez lania wody. Dzięki.
      • avatar
        J.B FIN
        0
        To ze chatGPT wypisuje bzdury to od Dawna wiadomo ale ze jest daltonista to na pewno nie wiecie
        • avatar
          GejzerJara
          0
          Dam prosty przykład. Do wypełnienia miałem pewne kwity, do których musiałem podać NIP/REGON pracodawcy. Na stronach pracodawcy tych danych nie ma. Oczywiście w wyszukiwarkach pierwsze z odpowiedzią pcha się głupawe aj aj, i podaje na pewniaka jakieś cyferki jako NIP i REGON z sufitu, fałszywe. Głupie aj aj nie wie że tego trzeba poszukać na stronach KRS, może kiedyś się dowie, ale to nie znaczy że aj aj stanie mniej głupie.

          tak nawiasem, aj aj nie myśli. tym bardziej niczego nie wymyśli. jedyne co robi aj aj, to rola papugi, która sprytnie skleja różne informacje które w danym kontekście do siebie pasują, i ubierze to w ludzki język komunikacji. nic więcej, nic mniej.

          dodam że jest taka fajna definicja czym jest myślenie. i co? jest to uzupełnianie informacji, którymi nie dysponujemy. to właśnie robi aj aj. problem w tym, że zamiast myśleć, to zmyśla. i w przypadku powyżej nie podało "nie mam dostępu do nip/pesel, one są prawdopodobnie takie: xxxxxx, ale musisz to sprawdzić". problem w tym że obecnie aj aj tego nie potrafi, i informacje pewne z treningu podaje w takiej samej formie jak informacje zmyslone, w dodatku w żaden sposób tych zmyślonych nie weryfikuje. to jest ogromna wada współczesnego aj aj.

          Witaj!

          Niedługo wyłaczymy stare logowanie.
          Logowanie będzie możliwe tylko przez 1Login.

          Połącz konto już teraz.

          Zaloguj przez 1Login