Crytek hat im Vorfeld der Game Developers Conference 2019 (18. März bis 22. März 2019) ein Tech-Demo-Video veröffentlicht, in dem Hardware- und API-unabhängige Raytracing-Reflexionen in Echtzeit demonstriert wird.

Die Tech-Demo “Neon Noir” (siehe Video) wurde auf Basis einer speziellen Version der Cryengine 5.5 entwickelt. Die experimentelle Raytracing-Funktion fußt auf der Total-Illumination-Technologie der Engine und ist sowohl API- als auch hardwareunabhängig. Crytek verspricht Raytracing auf den “meisten Mainstream-Grafikprozessoren von AMD und nVidia”. Der Video-Beschreibung ist zu entnehmen, dass die Tech-Demo in Echtzeit auf einer AMD Vega 56 GPU lief. Die Raytracing-Funktion wird im Laufe des Jahres in die Engine implementiert. Bis dahin soll die Technologie für die neuste Generation von Grafikkarten und APIs wie Vulkan und DX12 optimiert werden.

Die Demo “Neon Noir” zeigt Echtzeit-Raytracing-Reflexionen und Lichtbrechungen in einer futuristischen Stadt. “Die Neonlichter werden in den Pfützen unter ihnen reflektiert, flackende Straßenlampen werden von nassen Oberflächen reflektiert und Fenster reflektieren exakt die ihnen gegenüberliegende Szene”, schreibt Crytek.

  1. ronny_83 hat geschrieben: 17.03.2019 14:24 Alles ist besser als herstellerabhängige Hardwarelösungen.
    so low level ist dx12 nicht, dass es die software interessiert, wie die gpu das ganze hardware-mässig löst. nvidia benutzt für bestimmte berechnungen spezielle kerne und amd lässt das über ihre shader laufen, regeln tut das der treiber.

  2. natürlich, ein intel 9900k kommt mit etwa 1tf um die ecke, da lacht so eine rtx 2080 mit 10tf einfach mal drüber (von der 2080ti mit 14 tf reden wir erst gar nicht).

  3. bloub hat geschrieben: 17.03.2019 13:57
    Spoiler
    Show
    TaLLa hat geschrieben: 17.03.2019 11:25
    Opy92 hat geschrieben: 16.03.2019 14:11 Ich Frage mich, ob es sich Leistungstechnisch lohnen wird. Ich meine die rtx Serie hat extra einen RT chip und die Leistungseinbußen sind trotzdem relativ hoch. Ich persönlich würde lieber auf einer höheren Auflösung spielen , wenn mein Monitor zb. 4k unterstützen würde anstatt HD + RT.
    Dann hast du nicht ganz verstanden wie RT hier funktioniert. Nvidia braucht einen Chip, weil sie alles auf ihrer Grafikkarte verarbeiten wollen, was wenn wir ehrlich sind nicht funktioniert. Die Leistung dieses Chips ist viel zu lächerlich für eine Hardware mordende Technologie wie RT. Crytek nutzt das was am AMD schon vor einiger Zeit als bessere Variante erwähnt hatte: Die gesamte Rechenleistung des PCs was bedeutet die CPU rechnet bei RT kräftig mit. Naja Nvidia hat mir ihrem Flop immerhin die Implementierung von RT beschleunigt, nun können es andere richtig machen.
    lol, die leistung, die eine cpu da mit beisteuern könnte, ist halbwegs vernachlässigbar.
    Da sind eben neben AMD z.B. die Entwickler der Frostbite-Engine ganz anderer Meinung. Also nicht zu laut lachen.

  4. TaLLa hat geschrieben: 17.03.2019 11:25
    Opy92 hat geschrieben: 16.03.2019 14:11 Ich Frage mich, ob es sich Leistungstechnisch lohnen wird. Ich meine die rtx Serie hat extra einen RT chip und die Leistungseinbußen sind trotzdem relativ hoch. Ich persönlich würde lieber auf einer höheren Auflösung spielen , wenn mein Monitor zb. 4k unterstützen würde anstatt HD + RT.
    Dann hast du nicht ganz verstanden wie RT hier funktioniert. Nvidia braucht einen Chip, weil sie alles auf ihrer Grafikkarte verarbeiten wollen, was wenn wir ehrlich sind nicht funktioniert. Die Leistung dieses Chips ist viel zu lächerlich für eine Hardware mordende Technologie wie RT. Crytek nutzt das was am AMD schon vor einiger Zeit als bessere Variante erwähnt hatte: Die gesamte Rechenleistung des PCs was bedeutet die CPU rechnet bei RT kräftig mit. Naja Nvidia hat mir ihrem Flop immerhin die Implementierung von RT beschleunigt, nun können es andere richtig machen.
    lol, die leistung, die eine cpu da mit beisteuern könnte, ist halbwegs vernachlässigbar.

Hinterlassen Sie bitte einen Kommentar.

Seite 1