Internet

ChatGPT zwariował na punkcie goblinów. OpenAI rozwiązało zagadkę

przeczytasz w 2 min.

Część użytkowników modeli GPT-5 zauważyła dziwną tendencję AI do używania metafor z udziałem goblinów, gremlinów i innych fantastycznych stworzeń. Problem był na tyle poważny, że programiści OpenAI musieli przeprowadzić śledztwo i wdrożyć program zmiany nawyków.

Dochodzenie przeprowadzone przez zespół OpenAI wykazało, że zjawisko nasiliło się po premierze wersji GPT-5.1. Analitycy zauważyli gwałtowny wzrost konkretnych fraz – użycie słowa "goblin" wzrosło o 144 proc., a "gremlin" o 62 proc. 

Głównym winowajcą okazał się profil osobowości AI o nazwie Nerdy, który został zaprojektowany jako element personalizacji. Twórcy chcieli, by model był bardziej zabawny, ironiczny oraz skłonny do używania swobodnego języka, by unikać nadmiernej powagi.

Mimo że odpowiedzi generowane przez profil Nerdy miały stanowić zaledwie 1 proc. wszystkich interakcji z ChatGPT, to właśnie on odpowiadał za blisko 67 proc. wszystkich wzmianek o goblinach.

Gobliny "zainfekowały" algorytm ChatGPT

Dlaczego potwory zaczęły pojawiać się również w standardowych rozmowach? Problemem okazał się sposób, w jaki działa tzw. uczenie wzmacniane. 

Inżynierowie nieświadomie ustawili zbyt wysokie nagrody za używanie "stworzeniowych" metafor w ramach profilu nerdowskiego. Algorytm szybko nauczył się, że takie słownictwo jest punktowane i zaczął przenosić te wzorce do innych trybów pracy, tworząc błędne koło. Model generował teksty o goblinach, które następnie trafiały do baz danych służących do dalszego dostrajania, co tylko utrwalało ten nawyk. 

OpenAI musiało “wybić” gobliny

Twórcy podjęli radykalne kroki, aby oczyścić język modelu z goblinowych nawyrków.   

  • Profil Nerdy wycofano w marcu, po premierze GPT-5.4.  
  • Zmodyfikowano system nagród, usuwając preferencje dla słownictwa związanego ze stworzeniami.  
  • Przefiltrowano dane treningowe, aby ograniczyć występowanie tych fraz w niewłaściwych kontekstach.  

Ciekawym przypadkiem jest model GPT-5.5. Ponieważ jego trening rozpoczął się, zanim w pełni zrozumiano przyczynę goblinowego problemu, model ten bazowo również przejawiał tę tendencję. Deweloperzy musieli zastosować specjalne instrukcje systemowe, aby wymusić na nim bardziej profesjonalny język.

OpenAI twierdzi, że cała sytuacja była dla jego zespołu cenną lekcją. Przykład ten pokazuje, jak drobne zmiany w procesie uczenia mogą radykalnie i nieprzewidywalnie zmienić sposób działania sztucznej inteligencji. 

Komentarze

0
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!

Witaj!

Niedługo wyłaczymy stare logowanie.
Logowanie będzie możliwe tylko przez 1Login.

Połącz konto już teraz.

Zaloguj przez 1Login