W gamingu granice rzeczywistości wirtualnej oraz prawdziwej coraz bardziej się zacierają, Nvidia znowu zaskakuje. Tym razem podczas targów Consumer Electronics Show (CES) firma zaprezentowała najnowsze osiągnięcia w zakresie postaci niezależnych (NPC) napędzanych przez sztuczną inteligencję (AI). Postacie te stają się coraz bardziej przekonujące, lecz mimo postępu technologicznego, ich sposób komunikacji wciąż wywołuje pewien niepokój. Jakie nowości przynosi Nvidia i czy możemy się spodziewać rewolucji w interakcjach z wirtualnymi postaciami?
Nvidia prezentuje nowości w technologii AI dla NPC na CES
Nvidia nie przestaje zaskakiwać innowacjami w dziedzinie AI. Podczas CES firma pokazała Avatar Cloud Engine (ACE), nowatorskie połączenie technologii rozpoznawania mowy, automatycznych odpowiedzi tekstowych, generowania animacji twarzy oraz tworzenia zautomatyzowanych osobowości postaci. To wszystko składa się na niezwykle zaawansowane interakcje z komputerowymi NPC.
Seth Schneider, starszy menedżer produktu ACE, zademonstrował możliwości technologii. W praktyce oznacza to, że demo przekształca mowę gracza na tekst, a następnie wykorzystuje model językowy do wygenerowania odpowiedzi NPC, które są następnie animowane i renderowane w grze. To kompleksowe rozwiązanie ma na celu stworzenie bardziej naturalnych i angażujących doświadczeń dla graczy.
Aktualizacja technologii ACE z 2024 roku to krok naprzód w stosunku do poprzedniej wersji. Demonstracja pokazuje konwersacje generowane przez AI, które mogą być unikalne za każdym razem, kiedy gracz rozpoczyna grę. To otwiera nowe możliwości dla twórców gier, którzy poszukują sposobów na zwiększenie immersji w wirtualnych światach.
Wprowadzenie postaci AI do interakcji z otoczeniem
Inna firma, Convai, zaprezentowała technologię pozwalającą NPC na interakcję z przedmiotami. W demostracji pokazano NPC o imieniu Jin, który na polecenie Schneidera wyjął butelkę alkoholu. To pokazuje, że NPC nie tylko będą mogły prowadzić rozmowy, ale również wchodzić w interakcje z przedmiotami w swoim środowisku, co dodaje kolejną warstwę realizmu.
Nvidia współpracuje z wieloma twórcami gier. Firma podaje, że deweloperzy jak Mihoyo, NetEase Games, Tencent czy Ubisoft już korzystają z usług ACE, w tym z generowania animacji twarzy AI oraz automatycznego rozpoznawania mowy Riva.
Jest jeszcze wiele niewiadomych dotyczących implementacji NPC sterowanych przez AI. Nie wiadomo, które gry będą wykorzystywać te technologie i czy efekt końcowy będzie na tyle przekonujący, aby gracze zaakceptowali te postacie jako naturalne elementy gier.
Potencjalne konsekwencje dla przyszłości gier
Nvidia wywołuje dyskusje na temat przyszłości NPC w grach. Nowa demonstracja pokazuje, że AI może w przyszłości tworzyć interakcje NPC, co rodzi pytania o rolę ludzkich twórców w tym procesie.
Niepewność co do naturalności wirtualnych postaci pozostaje. Mimo iż technologia robi ogromne postępy, wciąż istnieje luka między tym, co jest generowane przez AI, a tym, co ludzie postrzegają jako naturalne. Czy i kiedy ta bariera zostanie przełamana, pozostaje otwartą kwestią.
Wpływ AI na branżę gier jest nieunikniony. Już teraz widzimy, jak technologia Nvidia zmienia sposób, w jaki tworzone są gry i jakie doświadczenia mogą one oferować. W miarę jak AI będzie coraz bardziej zaawansowane, możemy się spodziewać dalszych zmian w interakcjach z postaciami niezależnymi i całym światem gier.