Am vergangenen Donnerstag hat Nvidia die GTC-2020-Präsentation in digitaler Form nachgeholt und dabei die A100-GPU auf Basis der Ampere-Architektur vorgestellt. Hierbei handelte es sich um einen leistungsstarken Grafikprozessor für Rechenzentren. Konkrete Angaben zur nächsten GeForce-Grafikkarten-Generation (RTX 3000) wurden trotz vieler Vermutungen und “geleakter Daten” nicht gemacht.

Bei der Ankündigung der ersten RTX-Grafikkarten verfuhr Nvidia ähnlich. Zunächst wurde die Rechenzentrum-Version (Nvidia Volta) vorgestellt und einige Monate später folgte die Ankündigung der RTX-Turing-Grafikkarten für Spieler. Ob die Vorstellung der neuen Grafikkarten noch in diesem Jahr folgen wird, bleibt abzuwarten. Die RTX-Grafikkarten wurden im August 2018 im Vorfeld der gamescom präsentiert. Fest steht jedenfalls, dass die 7nm-Ampere-Mikroarchitektur für alle Grafikkarten der nächsten Generation verwendet werden soll (einheitliche Mikroarchitektur laut Marketwatch). Die Veröffentlichung wird angeblich für das 3. Quartal 2020 vorbereitet, da die AIB-Partner (Grafikkarten-Hersteller, die Chips von AMD oder Nvidia nutzen) laut Techradar ihre Lagerbestände räumen würden, um Platz für die Einführung von Nvidia-Ampere-Produkten vorzubereiten.

Die Spiele-bezogenen Ankündigungen hielten sich bei der GTC-Keynote (Aufzeichnung) von Nvidia-Frontmann Jensen Huang (nur echt mit Lederjacke) in Grenzen, sollen aber nachfolgend zusammengefasst werden. So kam der Chef von Nvidia auf die Raytracing-Implementierung am Beispiel von Minecraft RTX (wir berichteten, mehrfach) und auf die Verbesserungen von DLSS zu sprechen. Zu Beginn erklärte er die grundlegende Funktionsweise von DLSS – und wie Deep-Learning-Technologien zur Hochskalierung der Auflösung von Bildern verwendet werden und wie die Machine-Learing-Programme anhand der “Wahrheit” lernen (Details zu DLSS 2.0). DLSS ist im Raytracing-Zusammenhang sehr wichtig, da Raytracing sehr rechenaufwändig ist und der Rechenaufwand natürlich mit der gewählten nativen Auflösung zusammenhängt. Wird das Spiel z.B. nur in 720p berechnet, ist logischerweise weniger Rechenleistung als in 1440p erforderlich (gut für Raytracing). Die Hochskalierung z.B. von 720p auf 1440p wird dann via DLSS (Deep Learning Super Sampling) realisiert, wobei das Verfahren auch explizit ohne Raytracing funktioniert. Der Nvidia-Chef zeigte in dem Zusammenhang die Steigerung der Bildqualität von DLSS 2.0 im Vergleich zu DLSS 1.0. Version 1.0 sorgte bei höheren Auflösungen zwar für einen ordentlichen Schub bei der Bildwiederholrate, oft aber auf Kosten der Bildschärfe und stellenweise mit seltsamen Artefakten bei sich bewegenden Objekten.

Nach der Zusammenfassung der weitgehend bekannten Entwicklungen im GeForce-Spiele-Bereich wurde eine spielbare Tech-Demo gezeigt, die als Blick in die Zukunft angesehen werden könnte (siehe Video unterhalb dieses Absatzes). Die Tech-Demo, die schwer an “Marble Madness” erinnert, soll die Leistungsfähigkeit auf der Omniverse-Plattform (3D-Production-Pipeline) von Nvidia in Echtzeit veranschaulichen, mit hochdetaillierten Objekten, vollständiger Raytracing-Beleuchtung, aufwändiger Physik-Berechnung und keine für das “Echtzeit-Gaming” normalweise vorgenommenen Vereinfachungen zur Reduktion der Komplexität von 3D-Szenen. Auch viel KI-Unterstützung kam in der Demo zum Einsatz. Die Tech-Demo lief auf einer Quadro RTX 8000 – einer knapp 6.000 Euro teuren Grafikkarte mit 48 GB GDDR6-Speicher für professionelle Grafikanwendungen inkl. dedizierter Raytracing-Recheneinheiten wie in den RTX-Grafikkarten (Quadro RTX 8000: 72 RT-Recheneinheiten; GeForce 2080 Ti: 68 RT-Recheneinheiten).

  1. Ehrlich?
    Die Technik und so ist echt gut.
    Aber es muss auch für den normalen User verständlich sein.
    Am besten soll ein Spiel eine Benchmark laufen lassen und dann die Einstellungen die zum System passen vornehmen.
    So wie es Nvidia auch macht.
    Klappt nur nicht so richtig gut finde ich.
    Bei dem ganzen Wunst an Zeugs das es gibt, wird man gaga.
    Ich will doch nur spielen :D

  2. Doc Angelo hat geschrieben: 17.05.2020 20:26 Ich fands interessant, wie der Nvidia-Chef erst das native Bild zeigt, und dann die DLSS-Variante, und einfach so behauptet: "Sieht sogar besser aus! Wow!" Ist doch klar, das auf den ersten Blick ein Bild besser aussieht. Es ist ja auch ganz bewusst so gemacht, das es "besser" wirkt. Unter anderem mit digitalem Kontrast-Effekt, der Kanten farblich so abändert, das es für das Auge schärfer aussieht. Kann jeder mal an seinem Fernseher ausprobieren. "Schärfe" nach oben drehen. Ist der gleiche Effekt. Und sicherlich werden sie noch andere Techniken anwenden.
    Nicht falsch verstehen: Machine Learning zu nutzen um Bilder hoch zu skalieren ist eine sehr interessante Technik, aber so übertrieben wie NVidia das hier verkauft, das ist schon bekloppt. "Hier, sieht besser aus!" Nein. Tuts ehrlicherweise nicht. Ist aber auch OK, weil man sich mit der schlechteren visuellen Qualität etwas Leistung erkauft. Ist doch Okay. Muss ja nicht alles eine eierlegende Wollmilchsau sein.
    Was der Quatsch mit der Pipeline sollte, das weiß ich allerdings nicht so richtig. Scheint ein Grafik-Server zu sein, der die Geometrie der Welt im Speicher hat und mehrere virtuelle Kameras unterstützt, die dann per Stream zum Künstler kommen. Die haben sich echt so große Mühe gegeben, das Wort "Streaming" nicht zu benutzen, das man kaum wusste was das jetzt eigentlich sein soll.
    Was dann allerdings diese "Demo" damit zu tun hat, das weiß ich überhaupt nicht. Das hatte weder was mit Physik, noch mit Kollaboration zu tun. Das war ziemlich random. Von der Büste vom Nvidia-Chef mal ganz zu schweigen.
    Dann schau dir mal das DLSS von Control von Digital Foundry an. Das ist wirklich unfassbar gut. Erstens läuft es so natürlich viel besser und zweitens hat 2.0 wirklich einen riesen Sprung gemacht, was die Qualität angeht. Aus meiner Sicht wird's ohne DLSS in Zukunft kaum noch gehen, wenn man denn alles ausreizen will.

  3. So sehr die UE 5 auch beeindruckt, muss halt doch zugegeben werden:
    Photorealismus kann nur mit Raytracing erreicht werden. Schade, dass wir das noch lange nicht in seiner vollen Pracht haben werden.
    Nvidia muss hier rumtricksen, mit geringer Berechnugsäuflösung, wenigen Iterationen und dann erforderlichen Tricks wie Entrauschung / Kompensation niedriger Ausgangsdetails durch intelligente Skalierung / DLSS. Trotzdem sehen die Ergebnisse, Marble-Demo auf sehr starker! Nvidia-Hardware, gut aus.

Hinterlassen Sie bitte einen Kommentar.

Seite 1