
Nie ma nowych kart, ale NVIDIA w inny sposób chce przekonać graczy i twórców
NVIDIA wycofała się z wprowadzenia serii GeForce RTX 50 Super, ale nie oznacza to, że zaprzestali prac nad swoimi technologiami poprawiającymi odbiór gier oraz usprawniającymi pracę. Byłem na prezentacji tych nowych rozwiązań i przynajmniej część zapowiada się ciekawie.
Zasadniczo już podczas CES 2026 NVIDIA chwaliła się tymi rozwiązaniami, ale nie wszystkiego wtedy można było dotknąć i przekonać się na własne oczy (oraz ręce), jak się to sprawdza. Tym razem zaproszono mnie do Warszawy na specjalny pokaz dla prasy technologicznej, podczas którego do każdego stanowiska był w pełni swobodny dostęp. Nie omieszkałem zatem sprawdzić wszystkich nowości i oto, co w mojej opinii zapowiada się bardzo ciekawie.
Kolejna implementacja NVIDIA ACE - asystent AI w grze strategicznej
O technologii NVIDIA ACE pisałem już przy innych okazjach, ale zwykle dotyczyło to typowych dem technologicznych. Realnie pierwszą grą, która z dobrodziejstw tej techniki korzysta, okazał się InZoi, ale nawet tam była to tylko namiastka możliwości, jakie daje użycie modelu językowego w grze. Tym razem NVIDIA zaprezentowała implementację w grze Total War: Pharaon i mamy tu do czynienia z pełnoprawnym asystentem AI. Oznacza to, że ten operuje na informacjach bezpośrednio z naszej sesji w grze i tego, co widzimy na ekranie. Pozornie może wyglądać jak nieco rozbudowany samouczek, ale szybko okazuje się, że potrafi znacznie więcej.
Przykładowo przyjmując, że to nasz pierwszy kontakt z serią Total War, może nas zaskoczyć rebelia mieszkańców albo rosnące niezadowolenie, mimo w teorii starania się, aby temu zapobiec. Wywołujemy wtedy asystenta i pytam się go, co W NASZEJ sytuacji można zrobić, aby uspokoić sytuację. Asystent dosłownie 2-3 sekundy analizuje sytuację i generuje odpowiedź z rozwiązaniem - w tym przypadku wybudowania stadionu, aby podnieść punkty zadowolenia. Informuje nas też, że powstanie trzeba niestety zwalczyć siłą i że musimy wzmocnić nasze oddziały, aby wygrać z rebeliantami.
Asystent nie gra za nas i to nadal tylko sugestie, ale w przypadku takich bardziej złożonych od strony mechaniki gier strategicznych, to i tak ogromna pomoc dla początkujących graczy. W praktyce obniża to znacząco próg wejścia do danej gry i niweluje potrzebę szukania pomocy w internecie. Trochę tak, jakbyśmy grali ze starszym bratem nad ramieniem, który w każdej chwili może nas oświecić swoja wiedzą i doświadczeniem :)
Aktualizacja do Total War: Pharaon, wprowadzająca Asystenta AI, ma się ukazać jeszcze w tej połowie roku i będzie dostępna dla wszystkich użytkowników kart NVIDIA GeForce RTX wyposażonych w co najmniej 12 GB vRAM. Minimalna ilość vRAM wynika z rozmiaru SLM (mały model językowy), który musi zostać załadowany do pamięci graficznej poza danymi gry. To dobra wiadomość dla osób, które 5 lat temu zainwestowały w RTX 3060 12 GB, ale gorsza dla tych, którzy w kolejnych latach wybrali GeForce RTX z tego samego segmentu, jako że NVIDIA uznała, że nie zasługuje on już na tak dużo pamięci.
Monitory wyposażone w NVIDIA G-SYNC Pulsar wkraczają do sprzedaży
Kolejna nowość, którą tym razem mogłem zobaczyć w bezpośrednim zestawieniu z “klasycznym” rozwiązaniem, to adaptacyjne odświeżanie G-Sync Pulsar. Co w nim wyjątkowego? Otóż to, że po raz pierwszy zmienne odświeżanie udało się połączyć ze stroboskopową pracą podświetlenia, które potrafi wygaszać się z częstotliwością 1000 Hz. Dzięki temu uzyskujemy obraz niesamowicie wyraźny w ruchu, nawet przy znacznie niższym i, co istotne, adaptacyjnie synchronizowanym FPS.
W praktyce efekt jest taki, że na panelu IPS z odświeżaniem 360 Hz podczas gry z FPS oscylującym między 80 a 150 FPS mamy poczucie płynności oraz wyrazistości obrazu na poziomie paneli OLED z odświeżaniem 360 Hz. Jeżeli FPS w grze udałoby się utrzymać na wyższym poziomie, to optycznie zaczynamy zbliżać się do wrażeń, jakie kojarzę z grania na monitorze z odświeżaniem 1000 Hz, tylko że tutaj mamy pełną rozdzielczość 1440p, podczas gdy tak szybkie (i droższe!) monitory osiągające 1000+Hz muszą obniżać rozdzielczość do 720p.
To jednak nie wszystko - najbardziej zaskoczyło mnie to, że monitory z techniką Pulsar nadal oferują taką samą jasność maksymalną, nawet po aktywowaniu stroboskopowej pracy podświetlenia. Na miejscu nikt nie chciał zdradzić, jak udało się to osiągnąć, a pytałem, jako że fizyka przeczy takim rezultatom. Najpewniej panel nie wykorzystuje 100% możliwości podświetlenia w standardowym trybie (pomimo wybrania w obu przypadkach maksymalnej jasności w ustawieniach) i dopiero aktywowanie trybu stroboskopowego podkręca jasność, tak aby subiektywnie zachować ten sam jej poziom dla użytkownika. Jak tylko dostanę któryś z tych paneli na testy, to dokładniej to sprawdzę.
Twórcy mogą jeszcze szybciej pracować z AI
Ciekawym pokazem możliwości układów graficznych NVIDIA było porównanie ich nowego mini-super PC - DXG Spark wyposażonego w układ GB10 (NVIDIA Grace Blackwell) i 128 GB zunifikowanej pamięci LPDDR5X - do laptopa Apple Macbook Pro MAX z też 128 GB RAM. Oba sprzęty pracowały na tym samym projekcie, który mieści się w zasobach obu komputerów - proste generowanie filmu o długości 3 sekund na podstawie promptu tekstowego. Na najszybszym i w sumie dwukrotnie droższym sprzęcie Apple (choć zaznaczę tu, że DXG Spart to też wydatek na poziomie 20 tys. zł…) proces ten trwał dobrze ponad 5 minut, podczas gdy komputer NVIDII zadanie ukończył w niespełna 40 sekund. Jak to możliwe?
Cóż - kwestia optymalizacji, ale też zgodzenia się na pewne kompromisy w kwestii jakości uzyskanego rezultatu. NVIDIA te same obliczenia może wykonywać na modelu o nawet czterokrotnie mniejszej precyzji (FP4), przy czym potrzebuje też znacznie mniej pamięci graficznej i może pracować na większych projektach. Sprawniej działa też proces upscalingu i sumarycznie rezultat uzyskujemy znacznie szybciej, ale nie da się ukryć, że różnice w precyzji są widoczne. Oczywiście to, że na NVIDII można użyć mniejszej precyzji, to nie oznacza, że trzeba to robić - ale przydaje się to przy pracy do generowania szybkich podglądów przed finalnym wygenerowaniem projektu z większą precyzją, jak już dopracujemy odpowiednio prompt do naszych potrzeb.
Modele NVFP4 to zbawienie dla użytkowników z mniejszą pojemnością vRAM
Na kolejnym stanowisku pokazano mi, jak dobrze działa generowanie grafiki z pomocą NVFP4. Co prawda pokaz dotyczył generowania na GeForce RTX 5090 obrazu korzystającego z wykonanego chwilę wcześniej zdjęcia i promptu, który opisywał całą resztę (świetna sprawa na potrzeby generowania miniatur do filmów), co zajęło raptem kilkanaście sekund, ale potem pokazano też, jak można to skalować dla mniejszych kart. W praktyce korzystanie z modeli, które wcześniej wymagały GPU z 16-24 GB vRAM jest teraz możliwe na kartach z 8-12 GB vRAM - o tyle mniej pamięci wymaga czteropozycyjna precyzja zmiennoprzecinkowa.
Warto przypomnieć, że mowa o całkowicie darmowych narzędziach - ComfyUI pobrać może każdy i z pomocą gotowych wzorców zacząć zabawę z generowaniem AI lokalnie na swoim PC lub laptopie wyposażonym w nawet bardzo podstawową kartę GeForce RTX 50 - niestety wcześniejsze generacje GeForce nie oferują sprzętowego wsparcia dla obliczeń z tą mniejsza precyzją.
Szybkie wyszukiwanie w foto i wideo z pomocą AI staje się coraz lepsze
Testując w ostatnich latach różne serwery NAS miałem okazję obserwować, jak powoli rozwija się funkcjonalność AI w zakresie inteligentnego przeszukiwania zawartości takich sieciowych magazynów danych. W szczególności w przypadku NAS pełniących rolę wideorejestratorów CCTV znamienne było to, że dostaliśmy możliwość wyszukiwania zdarzeń na zgromadzonych nagraniach. Niestety cały czas precyzja tego wyszukiwania pozostawia wiele do życzenia, jako że wydajność sprzętu nie pozwalała na bardzo szczegółową analizę treści obrazów i filmów. Teraz z pomocą rdzeni Tensor może się to zmienić.
Na pokazie zobaczyłem wczesną wersję aplikacji, która korzysta z dobrodziejstw kart NVIDII, aby znacznie rozbudować proces indeksowania, a potem również przeszukiwania tego indeksu w znacznie bardziej złożonych kontekstach. AI jest świadome tego, co prezentują zdjęcia, i tego, co się dzieje na filmie, i bez problemu wyszukamy np. fragmenty filmów, na których widać precyzyjnie opisane sytuacje. W takim przypadku plik indeksujący przechowywany jest lokalnie i możemy z poziomu PC (na którym zainstalowano aplikację) przeszukiwać w ten sposób nawet najbardziej masywne zasoby sieciowe bez obciążania ich samych. Dla osób pracujących z edycją wideo takie narzędzie wnosi więcej niż zatrudnienie asystenta na pełen etat, który będzie za nas wyszukiwać materiały, które chcemy wrzucić do projektu - piszę z własnego doświadczenia!
Nie zabrakło prezentacji DLSS 4.5 oraz dynamicznego MFGx6
O nowym modelu DLSS Super Resolution Transformer 2.0 z pewnością już słyszeliście, a jeżeli nie, to dość powiedzieć, że dostaliśmy dwa nowe profile dla najlepszego w branży upscalera. Model L oraz M powstały głównie z myślą o upscalingu w trybie Wydajności i Ultrawydajności, co zdaje się być ukłonem NVIDII w stronę graczy którzy kupili ich karty z 8 GB vRAM - tak, aby mogli pograć w wyższych rozdzielczościach z wyższą jakością obrazu, niż miało to miejsce na wcześniejszych modelach DLSS w bardziej agresywnych trybach. To jednak nie wszystko, ponieważ nowe modele przenoszą też “tone maping”, tak że teraz wykonuje się je już na obrazie upscalowanym. Dzięki temu silnik pracuje na znacznie większej ilości informacji i drobne punkty świetlne, obiekty półprzeźroczyste oraz ogólnie detale w grach są lepiej doświetlone, a często wprost stają się widoczne.
Ten efekt również jest tym lepiej widoczny, im niżej zejdziemy z natywną rozdzielczością, na której pracuje DLSS - ponownie zatem najwięcej zyskują profile Wydajność (50% natywnej rozdzielczości) i Ultrawydajność (33% natywnej rozdzielczości). Niestety w tym przypadku nie wszystkie zmiany są pozytywne - część efektów w grach (zwłaszcza obsługa odszumiania) nienajlepiej dogaduje się z nowym modelem DLSS i są sytuacje, w których starszy model K (DLSS 4.0) oferuje lepszą jakość obrazu - zwłaszcza w profilach Jakość i Balans. To jednak zagadnienie zasługujące na osobną publikację.
Ponownie mogłem też pograć na stanowisku prezentującym różnice pomiędzy DLSS MFGx4 a dynamicznym MFGx6. To technologia, która nadal jest “w rozwoju” i nie znamy oficjalnej daty jej wdrożenia, ale już teraz prezentuje się bardzo dobrze. Sterownik stale analizuje, ile FPS generuje silnik gry i dynamicznie dobiera mnożnik generatora klatek, aby trzymać nas możliwie blisko wybranego przez nas limitu (maksymalnej wartości odświeżania monitora). Oczywiście klatki są synchronizowane również z samym odświeżaniem, zatem sterownik będzie nas trzymać zawsze blisko limitu, unikając jego przekraczania.
Co to daje w praktyce? Zawsze maksymalną płynność przy tak niskich opóźnieniach, jak to możliwe w danej sytuacji (możliwie niski mnożnik). Niemal zawsze też widzimy WSZYSTKIE klatki wygenerowane przez sam silnik gry - wcześniej jeżeli generator wykraczał poza możliwości odświeżania monitora, możliwe było, że pomijane były klatki “prawdziwsze” (bo zasadniczo i tak wszystkie klatki generuje GPU na podstawie informacji z silnika gry, ale te generowane bezpośrednio, bez pomocy AI, są całkowicie wolne od artefaktów/błędów).
Podczas gry nie byłem w stanie wyczuć momentu, w którym mnożnik przeskakiwał z x3 na wyższe wartości, ale też nie robił tego błyskawicznie - opóźnienie w działaniu wynosiło około 1-2 s, przez które FPS musiał utrzymywać się na danym poziomie, aby mnożnik się zmienił. Podejrzewam, że NVIDIA nad tym właśnie pracuje, aby przyspieszyć responsywność tego adaptowania się do sytuacji na ekranie.
Na wydarzenie zaprosiła nas firma NVIDIA.


















Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!