Ciekawostki

AI oszukuje. Sztuczna inteligencja zrobi wiele, aby wygrać

przeczytasz w 2 min.

Badania Palisade Research ujawniają, że niektóre modele AI oszukują, by wygrać z zaawansowanymi systemami szachowymi. Przebadane modele językowe oszukiwały, aby osiągnąć swój cel. Aby manipulować nie potrzebowały do pomocy człowieka.

Najnowsze badania przeprowadzone przez Palisade Research pokazują, że niektóre modele sztucznej inteligencji są zdolne do oszustwa, aby osiągnąć zamierzony cel. Naukowcy odkryli, że AI potrafi manipulować między innymi systemami szachowymi, by zdobyć nieuczciwą przewagę. Niektóre modele językowe robiły to same z siebie i nie potrzebowały wskazówek od ludzi.

Nieuczciwe zagrania sztucznej inteligencji

W badaniach przeciwstawiono sobie różne modele aI i jeden z najlepszych silników szachowych, czyli Stockfish. Modele takie jak o1-preview i DeepSeek's R1 wykazały zdolność do oszukiwania. O1-preview oszukiwał w 37 proc. gier, a DeepSeek's R1 w 11 proc. przypadków.

Podczas jednego z testów, o1-preview zmodyfikował pliki systemowe Stockfish, a to spowodowało, że sztuczna inteligencja uzyskała niewiarygodną przewagę. Od dawna pojawiają się obawy dotyczącę etyczności działania AI, szczególnie w złożonych środowiskach. Wyniki przeprowadzonego eksperymentu są niepokojąco, ponieważ, jak wynika z przeprowadzonych testów,  sztuczna inteligencja stają się coraz bardziej przebiegła. 

Kontrolowanie działania AI okazuje się ogromnym wyzwaniem

Manipulowanie algorytmami podczas rozgrywania partii szachowych budzi pytania o etykę i konsekwencję zastosowania sztucznej inteligencji w innych dziedzinach. Ten rewolucyjny wynalazek może okazać się równie przydatny co niebezpieczny. Szczególnie, że nieuczciwa sztuczna inteligencja brzmi jak scenariusz któregoś z odcinków ,,Black Mirror”. Jeffrey Ladish z Palisade Research podkreśla, że choć obecnie to tylko gra, konsekwencje mogą być poważne, gdy AI zacznie działać w strategicznie istotnych obszarach.

"To zachowanie jest teraz urocze, ale staje się znacznie mniej urocze, gdy masz systemy, które są tak inteligentne jak my, lub mądrzejsze, w strategicznie istotnych domenach" - powiedział Jeffrey Ladish w rozmowie z Times.

Giganci technologiczni nieustannie udoskonalają AI i zapewniają, że nieustannie pracują nad wprowadzaniem adekwatnych zabezpieczeń, aby zapobiec niepożądanym zachowaniom. W trakcie badań badacze zauważyli to, że OpenAI prawdopodobnie wprowadziło poprawki do modelu o1-preview, a to zmniejszyło liczbę prób oszustwa.

Musimy przyglądać się działaniom sztucznej inteligencji

Największe firmy stojące za modelami językowymi nie chcą wypowiadać się na temat potencjalnych oszustw dokonywanych przez sztuczną inteligencję. OpenAI odmówiło komentarza na temat badań, a DeepSeek nie odpowiedziało na prośby o wypowiedź, badania Palisade Research wskazują na potrzebę dalszego monitorowania i regulacji zachowań AI. Postęp technologiczny sprawia, że sztuczna inteligencja rozwija się w zastraszającym tempie, dlatego tak ważne jest monitorowanie pracy algorytmów i pewność, że działają w sposób etyczny i zgodny z oczekiwaniami społecznymi. 

Komentarze

0
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!

Witaj!

Niedługo wyłaczymy stare logowanie.
Logowanie będzie możliwe tylko przez 1Login.

Połącz konto już teraz.

Zaloguj przez 1Login