Aktualisierung vom März
Mittlerweile hat sich laut DSOG herausgestellt, dass die in Echtzeit laufende Star Wars Raytracing-Techdemo (siehe Video unten) bei der Präsentation auf der GDC 2018 auf vier NVIDIA Tesla V100 GPUs lief. Aktuell kostet eine NVIDIA Tesla V100 Grafikkarte über 8.000 Euro (Peak single precision: 15.00 TeraFLOPS; Peak double precision: 7.50 TeraFLOPS; Deep Learning: 120.00 TeraFLOPS). Die Demo nutzte das DXR-Framework von Microsoft und die NVIDIA RTX Technologie für Volta GPUs. Die RTX-Technologie wird auch die Vulkan API unterstützen.
Aktualisierung vom 22. März 2018, 12:53 Uhr:
Bei der GDC 2018 zeigte Epic Games noch in einem Video, welche Spiele und Projekte auf der Unreal Engine basieren. Zu sehen sind u. a. A Way Out, Biomutant, DragonBall FighterZ, Project TL (NCSOFT), Concrete Genie, Sea of Thieves, Ace Combat 7, Soul Calibur 6, Ashen, Rune, Little Devil Inside, PUBG und PUBG Mobile etc. Die komplette Keynote “State of Unreal” kann bei YouTube angeschaut werden. Die Raytracing-Demo und weitere technische Demos findet ihr weiter unten.
Ursprüngliche Meldung vom 21. März 2018, 22:12 Uhr:
Bei der “State of Unreal Keynote” auf der GDC 2018 hat Epic Games einige Tech-Demos auf Basis der Unreal Engine 4 präsentiert. Zunächst zeigten sie Raytracing in Echtzeit mit einer kleinen Star-Wars-Demo. Die Demo nutzte das DXR-Framework von Microsoft und die NVIDIA RTX Technologie für Volta GPUs (wir berichteten). Das Ergebnis beschreiben die Entwickler als “Beleuchtungs- und Rendering-Technik der Zukunft”.
Raytracing wird in der Wikipedia folgendermaßen erklärt: “Raytracing (dt. Strahlenverfolgung) ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur Ermittlung der Sichtbarkeit von dreidimensionalen Objekten von einem bestimmten Punkt im Raum aus. Prominenteste Verwendung findet Raytracing in der 3D-Computergrafik. Hier ist der grundlegende Raytracing-Algorithmus eine Möglichkeit zur Darstellung einer 3D-Szene. Erweiterungen, die den Weg von Lichtstrahlen durch die Szene simulieren, dienen, ebenso wie das Radiosity-Verfahren, der Berechnung der Lichtverteilung.”
Im besagten Video (ILMxLAB) sind textured area lights (texturierte Flächenbeleuchtung), ray-traced area light shadows (Echtzeit-Schattenwurf durch Lichtquellen), ray-traced reflections (Reflexionen), ray-traced ambient occlusion (Umgebungsverdeckung), cinematic depth of field (Schärfentiefe) und NVIDIA GameWorks ray tracing denoising (Rauschunterdrückung) zu sehen.
Darüber hinaus hat Epic Games in weiteren Video (siehe unten) demonstriert, wie sich die Mimik einer Schauspielerin in Echtzeit auf eine virtuelle Figur übertragen lässt, wie die “Next-Gen-Darstellung” eines digital nachgebildeten Menschen mit Andy Serkis aussehen könnte und wie das “Replay System” bei Fortnite beispielhaft in Aktion aussieht. Das Replay-Feature soll allen Entwicklern mit der Unreal-Engine-Version 4.20 im Sommer zur Verfügung gestellt werden.
Update vom 28. Januar?
Das ist alles richtig, aber auch irrelevant. Es ging ja hierbei nur darum zu zeigen, was alles möglich ist. Und das ist wirklich - wirklich ziemlich beeindruckend, wie ich finde.
Ähnlich dem Zeug, was auf der ein oder anderen Automobilmesse zu sehen ist: ziemlich cool, aber für 3 Menschen auf der Welt.