Kategorien

ERSTER NVIDIA AI-BASIERTER NPC, MIT DEM MAN IM SPIEL PER LIVE-SPRACHE KOMMUNIZIEREN KANN

Außerdem verwendet die Innovation nicht das Cloud-basierte große Sprachmodell, sondern eine kompaktere Version davon, die lokal ausgeführt werden kann, so dass wir viel schneller Antworten erhalten, allerdings mit weniger Funktionalität.
J.o.k.e.r
J.o.k.e.r
Erster Nvidia AI-basierter NPC, mit dem man im Spiel per Live-Sprache kommunizieren kann

Künstliche Intelligenz hält auch langsam Einzug in die Welt der NPCs in Spielen, d. h. der nicht spielbaren Charaktere. Dabei handelt es sich um Charaktere in einem Spiel, mit denen Sie interagieren können, die Sie aber nicht direkt steuern können, wie z. B. Ihre eigene Spielfigur.

Genau diese so genannten NPCs will Nvidia mit der bereits angekündigten Nvidia ACE (Avatar Cloud Engine) modernisieren, die auf einem umfangreichen Sprachmodell aufbaut, das den NPC in einen Chatbot verwandelt, so dass man mit ihm über eine natürliche sprachbasierte Kommunikation interagieren kann. Alternativ könnte auch textbasierte Kommunikation eine Option sein, aber Nvidias jüngste Demo zeigte eher die sprachbasierte Methode als diese.

Das erste Spiel, das einen KI-basierten NPC enthält, heißt Mecha BREAK. Das Multiplayer-Kampfspiel kann im Wesentlichen als Tech-Demo angesehen werden, da es zeigt, wie die ACE-Technologie von Nvidia funktioniert, wenn man mit ihr durch natürliche sprachbasierte Kommunikation interagiert. Diese Demo ist auch deshalb besonders, weil es sich nicht um das Cloud-basierte ACE handelt, sondern um eine lokal ausgeführte Version, die auf einem kompakteren LLM basiert. Um den KI-basierten NPC auszuprobieren, benötigen Sie auf jeden Fall eine Grafikkarte der GeForce RTX-Serie, aber das kann alles sein, vom Modell GeForce RTX 2060 bis zur GeForce RTX 4090 .

Während die Cloud-basierte Version von ACE auf dem großen Nemotron-Sprachmodell basiert, das vier A100-Beschleuniger und mindestens 160 GB VRAM benötigt, um zu laufen, verwendet die lokal ausgeführte Version eine funktionsreduzierte und damit weniger ressourcenintensive Ausgabe dieses großen Sprachmodells, genannt Minitron 4B. Das Minitron 4B LLM benötigt nur 2 GB VRAM und ist zwar nicht so leistungsfähig wie sein Gegenstück in der Cloud, benötigt aber mit einer Reaktionszeit von nur 300 Millisekunden keine Sekunden.

Die erste Live-Implementierung, die zeigt, was diese Innovation zu leisten vermag, ist nur mit einem einzigen NPC verfügbar. Dank der neuen Funktion muss man sich nicht mehr mit auswählbaren Antworten herumschlagen, sondern kann mit dem NPC per Stimme interagieren, und die Demo zeigt, dass er Sprache recht gut versteht, auch wenn er sich nicht für einen Akzent schämt. Natürlich bietet das Modell mit reduzierter Funktionalität keinen so flüssigen und nahtlosen Dialog wie sein Cloud-basiertes Gegenstück, da das Ziel hier war, das kompakte Modell schnell und effizient auf mehreren Systemen arbeiten zu lassen.

Es ist noch nicht klar, was passiert, wenn keine RTX-basierte Grafikkarte im System vorhanden ist. In diesem Fall kann das Spiel alternativ auf die Cloud-Version umschalten oder sogar in die "Steinzeit" zurückkehren, so dass Sie auf NPC-Text mit vorprogrammierten Antworten reagieren können, wie Sie es gewohnt sind. Nvidias ACE-Technologie sieht sicherlich interessant und nützlich aus, aber es bleibt abzuwarten, wie die Spieler auf die Anwesenheit von KI-Chatbot-basierten NPCs reagieren und diese genießen werden. Die Innovation bietet auch eine Reihe neuer Möglichkeiten, um das Spielerlebnis auf eine neue Ebene zu heben, aber das ist eine andere Geschichte.

Wir empfehlen Ihnen gerne

    Teste

      Diesbezügliche Artikel

      Zurück zum Seitenanfang