In der PlayStation 5 wird bekanntlich ein Chip speziell für die Berechnung und die Realisierung von 3D-Audio eingesetzt. Sound in Spielen wird im Vergleich zur Grafik oftmals unterschätzt und daher soll die 3D-Audio-Technologie dafür sorgen, dass die Immersion weiter steigt. Hierzu sagte Samuel Justice (Mitbegründer von Sweet Justice Sound; beteiligt am Sounddesign von Fortnite und Injustice 2) in einem Interview mit GamesRadar: “Ich glaube, die reine Rechenleistung, die für die Erstellung realistischer Audiomodelle benötigt wird, wird weitgehend unterschätzt. In der Vergangenheit ist es uns gelungen, durch eine Menge Tricks und clevere Techniken ziemlich gute Darstellungen akustischer Modelle zu erstellen. Die Möglichkeit, voll automatisiertes 3D-Audio zu realisieren, ist ein großer Schritt nach vorn für Sound in Spielen und wird sicherlich zu viel immersiveren Erlebnissen führen”.

Laut dem Bericht bei GamesRadar sollen die Verbesserungen bereits bei “Standard-TV-Lautsprechern” und normalen Stereo-Kopfhörern zu hören sein. Mit (speziellen) Kopfhörern soll die Sound-Erfahrung aber deutlich intensiver ausfallen. Marcus Klang (Sounddesigner von Fe und Ghost Giant bei Zoink) erklärt weiter: “Wie kann man mit einem normalen Stereo-Kopfhörer Klänge erzeugen, die von […] oben oder hinten kommen? Die Antwort ist die Verwendung von HRTF, der kopfbezogenen Übertragungsfunktion [head-related transfer function]. Sie beschreibt, wie Geräusche vom Kopf, Körper und Außenohr gefiltert werden, bevor sie das Ohr erreichen, je nach Richtung des eintreffenden Geräusches. Alle Menschen haben unterschiedlich geformte Köpfe, Körper und Ohren, und daher hat jeder seine eigene HRTF. […] Es werden oft allgemeine Werte verwendet [beim Sounddesign für Spiele], die auf der Messung der eigenen HRTF oder der Dummyköpfe verschiedener Personen basieren – und es kann ein wenig schwierig sein, diese Werte zu reproduzieren, damit sie für alle passen.”

Marcus Klang zieht einen Vergleich zum Raytracing (zur Verbesserung der Grafikqualität) und meinte, dass die Grundlagen dieser Technologie überraschend viele Anwendungen in anderen Disziplinen hätten und dazu würde auch die Zukunft des Sound-Designs gehören. “Es kann verwendet werden, um das Gefühl von Realismus durch genauere Anpassungen/Justierungen des Sounds abhängig von der Umgebung des Spielers zu verbessern, in Echtzeit”, sagte er.

Bei der ersten Ankündigung der PS5-Hardware erklärte Mark Cerny gegenüber Wired: “Mit der kommenden Konsole ist es der Traum, zu zeigen, wie dramatisch anders das Audioerlebnis sein kann, wenn wir eine beträchtliche Menge an Hardware-Power dafür bereitstellen.” In der PlayStation 5 soll eine eigene 3D-Audio-Unit auf dem AMD-Chip für 3D-Sound zuständig sein. Man soll kleine, subtile Geräusche hören können, die z. B. von herumschleichenden Feinden kommen könnten. Die zusätzliche Rechenleistung im Vergleich zur aktuellen Generation soll für ein bedeutend besseres Klangerlebnis sorgen. Laut Cerny sei der Vergleich bzw. die Vorstellung “von Raytracing für Sound” gar nicht so abwegig. Er spricht von einem neuen Gold-Standard für die Nutzer von Kopfhörern.

  1. suchtpekr! hat geschrieben: 01.01.2020 15:16 Ne... Dein Gehör ist auch nur Stereo. Schall von oben erkennt dein Gehirn durch diese Zeitversetzung. Fügt man einem Audio Signal diese Versetzung hinzu glaubt dein Gehirn die Schallquelle oben zu finden. Und dafür reichen Stereokopfhörer :)
    Rein durch Zeitversetzung ist aber eben nur vorne hinten links rechts möglich rein von der Logik her. Siehe Post unter dir.

  2. Ich habe keine Ahnung von Sound-Technik und -Konzepten. Bin nur immer wieder erstaunt, wie gut meine Stereo-Kopfhörer den Sound bei Battlefield V wieder geben und ich dort exakt die Richtung, aus der das Geräusch kommt, orten kann. Vorn, hinten, links, rechts. Mir genügt das. :ugly:

  3. Laut wiki steht dazu das:
    "Das Außenohr des Menschen, das heißt die Ohrmuschel und der Anfang des Gehörgangs, wirken als richtungsselektive Filter. In der Struktur der Ohrmuschel werden je nach Schalleinfallsrichtung in der Medianebene unterschiedliche Resonanzen angeregt. Dieses führt dazu, dass jede dieser Richtungen (vorne, oben, hinten, unten) ein unterschiedliches Resonanzmuster besitzt. Der Frequenzgang der Ohren bekommt so richtungsspezifische Muster eingeprägt, die vom Gehör-Gehirn-System ausgewertet werden (richtungsbestimmende Bänder).
    Diese Muster im Frequenzgang sind individuell, je nach Form und Größe der eigenen Ohrmuschel. Bekommt man Schall über Kopfhörer dargeboten, der von einem anderen Kopf mit anderen Ohrmuscheln aufgenommen wurde, wird die Erkennung der Richtung in der Medianebene nicht mehr problemlos möglich. Beispiel: Das überwiegende Hinten-Lokalisieren von Kunstkopfaufnahmen und die „Im-Kopf-Lokalisation“ (IKL). "
    Ich habe gelernt, dass wenn man gewisse hohe Frequenzbereiche betont (mit einem shelf-eq zb.), diese auch "höher (und weiter vorne)" wargenommen werden.
    Damit sind denke ich auch diese "Filter" gemeint, die unsere Ohrmuschel auf Grund ihrer Form hat und dass wir uns das dadurch einfach evolutionsbedingt angelernt haben.
    Man musste damals auch Orten können woher der Schrei des Bären kommt und wie weit er entfernt war, dies haben wir gelernt indem wir irgendwann wussten dass, je dunkler ein Geräusch war und die hohen Frequenzen gefehlt haben, desto weiter war er auch weg.
    Ich bin gespannt wie man das auf Kopfhörer übertragen will, zumindest mit der oben unten lokalisation denn ein delay (selbst im ms bereich) wird es denk ich einfach nur räumlicher machen.

  4. inodak hat geschrieben: 01.01.2020 11:14
    suchtpekr! hat geschrieben: 30.12.2019 19:55
    inodak hat geschrieben: 30.12.2019 10:23 Also ich habe jetzt nicht verstanden, wie man dazu in der Lage sein soll, mit Stereo Lautsprechern oben/unten zu unterscheiden und ob die Audio Engine der PS5 dazu in der Lage wäre?
    Sell dir das Geräusch von einem Gewehr Schuss vor. Das erzeugt eine Schallwelle. Diese SW ist jetzt über dir. Trifft also dein Ohr von oben. Durch die Form der Ohrnuschel entsteht eine Verzögerung der SW. Im Prinzip wird die SW zerteilt und erreicht dein Trommelfell zeitverzögert. Das sind nur minimale Zeitunterschiede. Man könnte sagen man hört eigentlich eine minimale Überlagerung im Schuss Geräusch. Also fast wie doppelt. Dein Gehirn hat gelernt diese minimalen Verschiebungen oben und unten zuzuordnen.
    Jetzt der Teil wie man das in Spielen verwendet. Man braucht also nur einen Stereokopfhörer und einen leistungsfähigen Sound Prozessor. Die die Position der Höhe des Geräusches kann man also dem Prozessor mitgeben. Der würde dann diese natürliche verschobene Welle, die normalerweise deine Ohrnuschel erzeugt, generieren und ein Stereokopfhörer schießt das auf deine Ohren. Dadurch wird dein Hirn ausgetrickst und du erkennst, dass der Schuss von oben kommt.
    Für mich ist allerdings fraglich, wie man dieses Verfahren genau umsetzt. Jedes Ohr hat andere Werte und hat somit hat das Gehirn andere Zeitabstände zur Ortung gelernt. Vielleicht gibt es da ein kalibrierungsverfahren?
    Vielen Dank für die Erklärung! :) Ich frage mich allerdings, ob das so wie du es beschrieben hast mit regulären Stereo Lautsprechern getan ist? Vielleicht hat es ja auch etwas mit der Richtung zu tun, wie die Schallwellen auf unser Ohr treffen?

    Ne... Dein Gehör ist auch nur Stereo. Schall von oben erkennt dein Gehirn durch diese Zeitversetzung. Fügt man einem Audio Signal diese Versetzung hinzu glaubt dein Gehirn die Schallquelle oben zu finden. Und dafür reichen Stereokopfhörer :)

  5. suchtpekr! hat geschrieben: 30.12.2019 19:55
    inodak hat geschrieben: 30.12.2019 10:23 Also ich habe jetzt nicht verstanden, wie man dazu in der Lage sein soll, mit Stereo Lautsprechern oben/unten zu unterscheiden und ob die Audio Engine der PS5 dazu in der Lage wäre?
    Sell dir das Geräusch von einem Gewehr Schuss vor. Das erzeugt eine Schallwelle. Diese SW ist jetzt über dir. Trifft also dein Ohr von oben. Durch die Form der Ohrnuschel entsteht eine Verzögerung der SW. Im Prinzip wird die SW zerteilt und erreicht dein Trommelfell zeitverzögert. Das sind nur minimale Zeitunterschiede. Man könnte sagen man hört eigentlich eine minimale Überlagerung im Schuss Geräusch. Also fast wie doppelt. Dein Gehirn hat gelernt diese minimalen Verschiebungen oben und unten zuzuordnen.
    Jetzt der Teil wie man das in Spielen verwendet. Man braucht also nur einen Stereokopfhörer und einen leistungsfähigen Sound Prozessor. Die die Position der Höhe des Geräusches kann man also dem Prozessor mitgeben. Der würde dann diese natürliche verschobene Welle, die normalerweise deine Ohrnuschel erzeugt, generieren und ein Stereokopfhörer schießt das auf deine Ohren. Dadurch wird dein Hirn ausgetrickst und du erkennst, dass der Schuss von oben kommt.
    Für mich ist allerdings fraglich, wie man dieses Verfahren genau umsetzt. Jedes Ohr hat andere Werte und hat somit hat das Gehirn andere Zeitabstände zur Ortung gelernt. Vielleicht gibt es da ein kalibrierungsverfahren?
    Vielen Dank für die Erklärung! :) Ich frage mich allerdings, ob das so wie du es beschrieben hast mit regulären Stereo Lautsprechern getan ist? Vielleicht hat es ja auch etwas mit der Richtung zu tun, wie die Schallwellen auf unser Ohr treffen?

Hinterlassen Sie bitte einen Kommentar.

Seite 1