GDC

"Enemies": Unity-Techdemo zeigt beeindruckende virtuelle Frau

Ein zweiminütiges Video zeigt, wie realistisch die Spiele-Engine Unity virtuelle Menschen rendern kann.

In Pocket speichern vorlesen Druckansicht 257 Kommentare lesen

(Bild: Unity Technologies)

Lesezeit: 2 Min.

Unity Technologies stellt die Techdemo "Enemies" vor, die das Rendering eines möglichst echt aussehenden Menschen in den Fokus rückt. Die Protagonistin ist eine Frau in ihren 40ern mit leicht faltiger Haut und schulterlangen Haaren – anders als bei früheren Demos dieser Art macht es sich Unity nicht mit Glatzen einfach.

Die Mischung aus klassischer Rasterisierung und realistischen Raytracing-Grafikeffekten hat bei der Techdemo "Enemies" allerdings ihren Preis: Auf Nvidias Grafikkartentopmodell GeForce RTX 3090 lief das Ganze gerade mal mit durchschnittlich 40 Bildern pro Sekunde bei einer Auflösung von 2560 × 1440 Pixeln, wie der Projektleiter Rob Cupisz über Twitter verriet. Der KI-Upscaler Deep Learning Super Sampling (DLSS) rechnete die Bilder auf Ultra HD mit 3840 × 2160 Pixeln hoch. Bis Menschen in Videospielen so realistisch aussehen, wird also noch einige Zeit vergehen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Insbesondere die Verschattung im Gesicht funktioniert über Raytracing. Unity lässt einen Teil der Umgebungsverdeckung, größere von der Sonne als primäre Lichtquelle erzeugte Schatten, und Reflexionen mittels Raytracing rendern. Schatten im Hintergrund laufen über eine leistungssparende Screen Space Global Illumination (SSGI), die nur innerhalb des gezeigten Bildausschnitts funktioniert, also Einflüsse von Objekten außerhalb des Bilds außer Acht lässt.

Die Umgebungsverdeckung im Hintergrund verzichtet auf Raytracing, zudem sind viele Lichter und Schatten vorberechnet. Unity nutzt dafür Adaptive Probe Volumes anstelle von Lightmaps.

Das System, das sich um Hautverformungen beim Sprechen und den gezeigten Emotionen kümmert, läuft inzwischen auf der GPU. Die Gesichtsanimationen hat Unity über Motion-Capturing aufgenommen. Künftig will das Demoteam auf das zugekaufte Ziva-System wechseln. Das Haar wird in Form vieler Strähnen gerendert – Verschattungen lassen es voluminös wirken.

"Enemies" setzt auf die Techdemo "The Heretic" aus dem Jahr 2019 auf. Die meisten überarbeiteten und neuen Tools sind bereits in der High-Definition Render Pipeline (HDRP) von Unity enthalten oder kommen in den nächsten Monaten. Der Projektleiter Rob Cupisz betonte, dass die Entwicklung mit dem normalen Editor ohne interne Spezialwerkzeuge stattfand.

Ein "Digital Human 2.0"-Entwicklungspaket soll in den nächsten zwei Monaten erscheinen. Das neue Haarsystem will Unity demnächst über GitHub bereitstellen und testen lassen, bevor es als offizielles Tool in die Unity-Engine gelangt.

(mma)