Dices Johan Andersson spricht BF4, Frostbeule, Mantel, die Zukunft

> Die Zukunft von Hardware und Game Realism Chris: Aufregend, okay cool. Offensichtlich haben Sie eine direkte Verbindung zu diesen Hardware-Anbietern. Was möchten Sie in der nächsten Generation von GPUs sehen, die Ihnen die Arbeit erleichtern werden? Johan: Das ist eine lustige Frage. Wir haben eine ziemlich lange Liste von allem, was wir normalerweise durchmachen und dann mit ihnen reden, aber eine sehr konkrete Sache, die wir gerne sehen würden, und Intel hat dies bereits auf ihrer Hardware getan, sie nennen es PixelSync, was ist ihre Methode, die Grafikpipeline auf eine pixelgenaue Art u

>

Die Zukunft von Hardware und Game Realism

Chris: Aufregend, okay cool. Offensichtlich haben Sie eine direkte Verbindung zu diesen Hardware-Anbietern. Was möchten Sie in der nächsten Generation von GPUs sehen, die Ihnen die Arbeit erleichtern werden?

Johan: Das ist eine lustige Frage. Wir haben eine ziemlich lange Liste von allem, was wir normalerweise durchmachen und dann mit ihnen reden, aber eine sehr konkrete Sache, die wir gerne sehen würden, und Intel hat dies bereits auf ihrer Hardware getan, sie nennen es PixelSync, was ist ihre Methode, die Grafikpipeline auf eine pixelgenaue Art und Weise sehr effizient zu synchronisieren. Sie können damit viele coole Techniken anwenden, wie zum Beispiel eine auftragsunabhängige Transparenz für das Rendering von Haaren oder für das Rendering von Laub. Und sie können eine programmierbare Überblendung vornehmen, bei der Sie die volle Kontrolle über die Überblendung haben wollen, anstatt die Einheiten mit fester Funktion in der GPU zu verwenden. Es gibt viele coole Komponenten, die von einem solchen Programmierungs-Primitiv aktiviert werden können, und ich würde mir wünschen, dass AMD und Nvidia etwas Ähnliches implementieren. Es ist auch insgesamt sehr energieeffizient und effizient auf Intels Hardware, daher denke ich, dass die Herausforderung für Nvidia und AMD darin bestehen würde, wenn sie dies effizient tun könnten, da sie viele der verschiedenen Architekturen dort haben. Das ist eine Sache. Welche anderen Komponenten haben wir? Normalerweise, wenn die Architekten zu Ende sind, haben wir diese Versammlungen, in denen wir nur 14, 15 Stunden oder einen ganzen Tag lang über alles sitzen und reden.

Chris: Das wäre eine lustige Unterhaltung, auf der man sitzen kann.

Johan: Ja, es macht wirklich Spaß. Wir wollen aktivieren, und ich erwähnte letzte Woche während meiner Rede letzte Woche über Mantle etwas davon. Ich habe der GPU ermöglicht, etwas mehr auf eine heterogene Art und Weise auszuführen, mehrere Rechen-Shader parallel zu Ihren Grafiken laufen zu lassen arbeiten und idealerweise mehr Zusammenarbeit zwischen CPU und GPU haben. Wir können solche Dinge auf der Konsole machen, weil sie integrierte Maschinen sind, also befinden sich CPU und GPU auf demselben Chip. Auf dem PC sieht man es mehr und mehr mit den APUs und Intels Ultrabooks, die auch Grafik integriert haben.

Ich möchte mehr von dieser Art der Zusammenarbeit zwischen CPU und GPU sehen, um viele weitere Rendering-Techniken zu entwickeln. Wenn wir zum Beispiel den Z-Puffer für eine Szene gerendert haben, kennen wir die Tiefe jedes einzelnen Pixels, das wir in unserem Frustum haben, und basierend auf diesen Informationen können wir tatsächlich Dinge tun, wie zum Beispiel Shadow Maps, die speziell nur zum Verdecken angepasst sind das Gebiet, das sie eigentlich brauchen. Normalerweise haben Sie dieses Wissen nicht wirklich und auf der CPU bereiten Sie diese Daten vor, die die GPU ein paar Frames später rendern wird, also müssen Sie viele Dinge brutal erzwingen. Sie müssen eine Menge Arbeit aussenden und Sie können nicht wirklich reaktiv sein. Mit vielen der Dinge, die wir mit Mantle machen können, und ich denke, dass wir auch mit einer engeren CPU- und GPU-Interaktion im Allgemeinen weitermachen können, können wir viel clevere Techniken und weniger Brute-Force-Techniken anwenden. Das ist ein ziemlich häufiges Thema, wenn wir mit Architekten sprechen.

Chris: Klar, ich möchte auch etwas über Features wissen, die den größten Unterschied zum Realismus ausmachen, aber in meiner vorherigen Frage habe ich über Features gesprochen, die deine Arbeit erleichtern würden. Gibt es im Nachhinein verschiedene Funktionen, die Sie sehen möchten und die das Erlebnis eines Endbenutzers verbessern, wenn Sie Ihre Spiele aus der Perspektive des Realismus spielen?

Johan: Ja, so realistisch. Ich denke, dass es ein paar Dinge gibt, ich denke, es geht in beiden Kategorien. Eine andere Sache, die ich noch nicht erwähnt habe, ist, dass Nvidia viel gute Arbeit mit verschachtelter Datenparallelität geleistet hat oder ich denke, dass sie es dynamische Parallelität in ihren großen Kepler-Kernen nennen, wo Sie tatsächlich Rechenoperationen ausführen, die verschachtelt sind und können interagieren auf sehr interessante Weise. Das ermöglicht eine Vielzahl anderer Programmiermöglichkeiten und eine gute Performance.

Speziell für den Realismus haben wir im Allgemeinen einige Herausforderungen, da es so viele Rendering-Techniken gibt, die wir nur durch Standard-Rasterung und Post-Prozesse implementieren. Diese Dinge werden immer mehr zusammenbrechen, wenn wir immer komplexere Szenen haben, und wir wollen mehr transparente Oberflächen in diesen haben. Man tut nur die Standard-Rasterung und versucht dann, Tiefenschärfe und Bewegungsunschärfe richtig zu machen, aber sie als Nachbearbeitung zu tun, ist sehr, sehr begrenzt. Nehmen wir an, Sie haben eine Transparenz und Sie können zwei oder drei Ebenen von Fenstern mit einigen Partikeleffekten dort haben, und dann möchten Sie die Tiefe des Feldes in dieser Szene später tun, aber Sie haben nur Ihren Tiefenpuffer. Es weiß nichts über diese transparenten Oberflächen, oder wenn es von ihnen weiß, weiß es nicht, was dahinter steckt.

Ich denke, eine Herausforderung besteht darin herauszufinden, was eine gute, effiziente zukünftige Grafik-Pipeline sowohl für mobile, die vielleicht unterschiedliche Einschränkungen haben, aber auch für Tiefen-Sachen, weil die Raster-Pipeline ist wirklich sehr effizient, hat aber seine Grenzen dort. Es gibt verschiedene andere Arten von Alternativen wie Mikrodreieck- oder Mikropolygon-Rasterisierer oder stochastische Rasterung, bei denen Sie mit der Schärfentiefe und der Bewegungsunschärfe beginnen können, und sie können mehr ein integraler Bestandteil Ihres Renderings sein. Dies hat natürlich viele andere mögliche Nachteile oder Schwierigkeiten, wie diese Dinge interagieren, aber Sie kommen irgendwie zu dem Punkt, wo mehr dieser Techniken freier interagieren können. Ich denke, das kann wirklich viel zusätzlichen Realismus bringen. Zumindest spreche ich von rein was die GPU-Anbieter und wir gemeinsam daran machen können.

Es gibt eine Menge Sachen, die wir auch mit unserem Motor machen können, und das tun wir weiter. Dinge wie physikalisch basiertes Rendering und Schattierungen, bei denen wir mehr reale Messungen von Lichtquellen und Materialien ausprobieren und versuchen, diese genau im Spiel darzustellen. In früheren Spielen und Engines betrachten wir normalerweise die Referenz, und dann versuchen Sie, das nachzubilden, aber Sie messen nicht wirklich, Sie kennen die Bereiche nicht. Es gibt wirklich nichts, womit man wirklich vergleichen könnte, also die Art von Spielen, die wir jetzt mit sehr großen, komplexen Inhalten und Ebenen des Spiels spielen, wird es wichtiger, diese Referenz zu haben; der Bezugsrahmen für etwas, das real ist und versuchen, das nachzubilden.

Top