Counterplay Games und Gearbox Publishing haben die Systemanforderungen der PC-Version von Godfall bekannt gegeben, wobei die “empfohlenen Systemvoraussetzungen” schon ziemlich hoch ausfallen. Das Action-Rollenspiel bzw. der Looter-Slasher mit Nahkampf-Fokus erfordert eine permanente Online-Verbindung. Gleichzeitig betonen die Entwickler, dass Godfall trotzdem kein “Game-as-a-Service-Titel” sei. Die PC-Version wird ab dem 12. November im Epic Games Store erhältlich sein. Gleiches gilt für die PS5-Version.

Minimum

  • OS: Windows 10
  • CPU: AMD Ryzen 5 1600 oder Intel Core i5-6600
  • GPU: AMD Radeon RX 580 8 GB oder Nvidia GeForce GTX 1060 6 GB
  • RAM: 12 GB

Empfohlen für 1080p mit 60 fps und hohen Grafikqualitätsoptionen (Quelle)

  • OS: Windows 10
  • CPU: AMD Ryzen 5 3600 oder Intel Core i7-8700
  • GPU: AMD Radeon 5700 XT 8 GB oder Nvidia GeForce GTX 1080 Ti 11 GB
  • RAM: 16 GB


Die PC-Version von Godfall wird in Zusammenarbeit mit AMD einige besonderes Funktionen bieten, z.B. Raytracing-Schatten via DXR, FideltyFX Contrast Adaptive Sharpening etc. Weitere Details verraten die Entwickler im folgenden Video.

  1. cM0 hat geschrieben: 03.11.2020 16:50
    Ryan2k6 hat geschrieben: 03.11.2020 15:05
    cM0 hat geschrieben: 03.11.2020 14:45 Zur News: So hoch sind die Anforderungen nun auch nicht. Eine GTX 1060 z. B. ist 4 Jahre alt und war damals auch nicht gerade leistungsstark. Abseits davon kann man den Anforderungen der Hersteller doch eh nie trauen. Schon gar nicht, wenn keine Details und FPS angegeben sind.
    Also sorry, aber Minimum heißt, darunter geht das Ding gar nicht an. Dass ältere Karten als eine 1060 also komplett in die Röhre schauen ist schon ne neue Dimension, gerade wenn man sich die Steam Hardware Surveys mal anschaut.
    Und es ist ja angegeben: "Empfohlen für 1080p mit 60 fps und hohen Grafikqualitätsoptionen".
    Wenn man eine 1080 TI braucht nur für FHD@60, dann ist 4K ja für alles außer 3090 unerreichbar. Und danach sieht das Spiel nun leider überhaupt nicht aus. ;)
    Ja, aber auch "hoch" sagt heute nicht mehr viel aus, denn viele Spiele bieten darüber oft noch "sehr hoch", "ultra" und neuerdings auch "extrem" oder ähnliche Bezeichnungen. Das meine ich mit nicht aussagekräftig.
    Aber auch eine 1080 TI ist 4 Jahre alt. Highend der vor- vorletzten Generation. Nichts besonderes mehr. Selbst eine RTX 3060 wird sicher schneller sein. Technik entwickelt sich nunmal weiter, aber das geht die letzten Jahre so langsam wie noch nie. Dass man nach 4 Jahren überhaupt noch auf hohen Details in angemessener Auflösung spielen kann, war vor 10, 15 oder gar 20 Jahren undenkbar. Da hat man jedes Jahr neue Hardware gebraucht.
    Volle Zustimmung, so lange wie derzeit konnte man eine Grafikkarte noch nie vernünftig nutzen.
    Ultra / Extrem-Details sind in der Regel auch Quatsch, weil sie unverhältnismäßig viel Leistung kosten und man den Unterschied zu "Hoch" kaum oder gar nicht sieht.
    Mir sind mehr FPS wichtiger als exorbitante Grafikqualität. Das trägt deutlich mehr zum besseren Spielerlebnis bei.

  2. Ryan2k6 hat geschrieben: 04.11.2020 05:28Es ist aber eben keine Verhältnismäßigkeit, wenn die Anforderungen dermaßen steigen ohne einen fundamentalen optischen Fortschritt. Wie gesagt, schau dir ein Witcher 3 daneben an. Es wird eben ohne erkennbaren Grund so viel benötigt.
    Wenn man die Mehrleistung nicht für irgendwelchen Firlefanz ausgeben würde, wäre 4K überhaupt kein Problem, auch mit einer 3070 nicht (außer vielleicht den VRAM). Und ich glaube von 4K hätte man wesentlich mehr, als von irgendwelchen kaum sichtbaren Effekten, die die Performance runterziehen. Zumal man sich dann auch die Kantenglättung eher sparen kann, zumindest runterdrehen. Stattdessen braucht man demnächst dann eine 3070 um einfach nur wieder FHD ordentlich zu spielen. Klasse.
    Es ist aber in fast allen Lebenslagen so, dass man ab einer bestimmten Qualität unverhältnismäßig mehr Leistung braucht. Die berühmte 20/80-„Regel“. Dieser fundamentale Sprung wird nicht mehr kommen und da die Schritte immer kürzer werden, fällt es einem im Gesamtbild erst im direkten Vergleich von z.b Spielen aus 2015 und 2020 auf.
    Dieser Firlefanz ist es, was das Gesamtbild runder macht. Ist es ein Gamechanger, dass die Sonne bei Red Dead Redemption 2 die Ohrmuscheln von Arthur erhellt? Natürlich nicht. Ist es jedem aufgefallen? Ich denke nicht. Aber wenn es einem erstmal auffällt ist es ein sehr cooler Effekt. Spiele sehen seit Jahren gut aus, der Polycount ist oft ausreichend (für Spielfiguren und große Gebilde). Es fehlt an Texturen, was Speicher benötigt und an Effekten (nicht nur Partikel), was Rohleistung benötigt.
    Und irgendwann ist dieser Firlefanz etwas, ohne den, nach einer Eingewöhnungsphase, die älteren Spiele etwas Mau (nicht schlecht) aussehen. Vergleiche nur mal, was das Shadermodell 3.0.(glaube ich) zur GeForce FX 5XXX-Reihe an Perfmanceeinbußen hatte bei Splinter Cell Chaos Theory und wie fluffig das auf einmal selbst mit einer GeForce 6600 lief. Klar, solche Geschichten wie Bump Mapping oder...

  3. Always online und Epic exclusive, da gibt's Pest und Cholera im Doppelpack!
    Edit: Und dem Trailer nach zu urteilen ein FOV von ca 50. Covid als Zugabe zu Pest und Cholera! :Hüpf:

  4. Das war aber abzusehen. Es gibt sehr viele Effekte, bei denen hohe / höchste Einstellungen kaum einen Unterschied machen. Zwischen den höchsten Einstellungen und einer Stufe darunter gehen oft 30% Performance verloren, ohne dass man es wirklich sieht.
    Generell sind wir mittlerweile an einem Punkt angekommen, an dem immer mehr Performance benötigt wird und der optische Mehrwert kaum noch sichtbar ist. 4k ist für viele noch immer keine Option, schon allein weil die passenden Monitore fehlen. Ich weiß, dass 4k in Spielen auch auf FHD Monitoren einen Vorteil bringt, die meisten haben davon aber keine Ahnung. Und auch hier sind wir bei 4 mal so viel Leistung im Vergleich zu FHD bei einem relativ kleinen Mehrwert. Da reicht es auch nicht, ein paar Effekte entwicklerseitig zu reduzieren bzw. darauf zu verzichten, um den Performanceunterschied von FHD zu 4k auszumachen.
    Ein Witcher 3 sieht natürlich noch immer gut aus, aber gerade bei Texturen, Spiegelungen und Partikeleffekten ist es einem Godfall bei weitem unterlegen. Man findet sicher noch mehr, wenn man das ganze technisch analysiert oder wenigstens Vergleichsvideos von beiden Spielen sieht. Das habe ich jetzt aber nicht vor :)
    Bis 4k wirklich für die Masse interessant wird, werden noch einige Grafikkartengenerationen vergehen. Wenn es nicht die höchsten Einstellungen sein müssen, kommt man aber sicher auch mit einer 3070 gut hin.

  5. Es ist aber eben keine Verhältnismäßigkeit, wenn die Anforderungen dermaßen steigen ohne einen fundamentalen optischen Fortschritt. Wie gesagt, schau dir ein Witcher 3 daneben an. Es wird eben ohne erkennbaren Grund so viel benötigt.
    Wenn man die Mehrleistung nicht für irgendwelchen Firlefanz ausgeben würde, wäre 4K überhaupt kein Problem, auch mit einer 3070 nicht (außer vielleicht den VRAM). Und ich glaube von 4K hätte man wesentlich mehr, als von irgendwelchen kaum sichtbaren Effekten, die die Performance runterziehen. Zumal man sich dann auch die Kantenglättung eher sparen kann, zumindest runterdrehen. Stattdessen braucht man demnächst dann eine 3070 um einfach nur wieder FHD ordentlich zu spielen. Klasse.

Hinterlassen Sie bitte einen Kommentar.

Seite 1