
Fałszywe zdjęcia tworzone przez sztuczną inteligencję zalewają internet i coraz trudniej odróżnić je od prawdziwych fotografii. Eksperci twierdzą jednak, że AI wciąż popełnia błędy, które można wychwycić bez specjalistycznego oprogramowania.
Żyjemy w czasach, w których tradycyjne powiedzenie "uwierzę, gdy zobaczę” traci rację bytu. Obecnie miliardy ludzi mają dostęp do technologii, która w zaledwie kilka sekund potrafi wygenerować fotorealistyczne obrazy na podstawie najbardziej wymyślnych poleceń.
Generatory obrazów AI stały się tak zaawansowane, że potrafią nawet naśladować subtelne niedoskonałości prawdziwych aparatów, takie jak szumy matrycy czy artefakty soczewki. To sprawia, że odróżnienie prawdy od fałszu staje się dla przeciętnego człowieka niemal niemożliwe. Co więcej, obrazy tworzone przez sztuczną inteligencję bywają dla nas bardziej atrakcyjne niż rzeczywistość – mają lepsze kąty widzenia i bardziej spektakularne kolory, przypominając kadry z wysokobudżetowych filmów.
Sztuczna inteligencja ma problem z geometrią
Mimo swojego zaawansowania, sztuczna inteligencja ma jedną zasadniczą słabość: nie rozumie praw fizyki ani geometrii, które rządzą naszym światem. Hany Farid, uznawany za ojca chrzestnego cyfrowej kryminalistyki, od lat zajmuje się tropieniem tych subtelnych błędów – dobrze opisał to również w magazynie Science.
Podczas gdy AI świetnie radzi sobie z ogólnym wyglądem sceny, często “wykłada się” na detalach, których ludzkie oko zazwyczaj nie analizuje świadomie. To właśnie tam detektywi cyfrowi szukają dowodów na manipulację, traktując każde zdjęcie jak zagadkę wymagającą interdyscyplinarnego podejścia.
Jednym z najskuteczniejszych sposobów na zdemaskowanie cyfrowego oszustwa jest analiza linii pomocniczych w obrazie. W rzeczywistości linie równoległe, takie jak fugi między płytkami podłogowymi, powinny zbiegać się w jednym, konkretnym punkcie na horyzoncie. Podobnie jest w przypadku zdjęć z lustrem – równoległe linie wyznaczane przez odpowiadające sobie punkty obiektu i jego odbicia również powinny prowadzić do wspólnego punktu zbiegu.
Sztuczna inteligencja często gubi tę spójność, a jej linie zbiegu są rozproszone, co stanowi wyraźny sygnał, że obraz nie powstał w obiektywie aparatu. Podobne zasady dotyczą odbić w lustrach czy gładkich powierzchniach – linie łączące obiekty z ich odbiciami również powinny prowadzić do wspólnego punktu zniknięcia.
Pułapka światła i zbyt idealne wybuchy
Kolejnym potężnym narzędziem w rękach ekspertów są cienie. Ponieważ słońce znajduje się bardzo daleko od Ziemi, jego promienie docierają do nas niemal równolegle. Oznacza to, że cienie rzucane przez różne obiekty w świetle dziennym muszą podlegać ścisłym zasadom geometrycznym i zbiegać się w odpowiednim punkcie. AI często generuje cienie, które na pierwszy rzut oka wyglądają naturalnie, ale po dokładniejszej analizie okazują się fizycznie niemożliwe.
Eksperci analizują również zjawiska dynamiczne, takie jak eksplozje – sztuczna inteligencja ma tendencję do tworzenia zbyt dramatycznych wybuchów, z nadmiarem ognia i dymu, odbiegających od rzeczywistości.
Wyścig zbrojeń w świecie pikseli
Wykrywanie deepfake’ów to nieustanny wyścig zbrojeń. Gdy badacze opracowują nową metodę wykrywania manipulacji. Choć powstają automatyczne systemy oceny autentyczności materiałów, wielu ekspertów, w tym Farid, uważa, że nie zastąpią one ludzkiej wiedzy i analizy opartej na nauce.
Ostatecznym celem nie jest całkowite wyeliminowanie fałszywek, lecz sprawienie, by ich tworzenie było na tyle trudne, że stanie się poza zasięgiem większości osób szerzących dezinformację.







Komentarze
2