Wat is Nvidia’s GeForce RTX?
Tijdens de Nvidia keynote op gamescom stapte CEO Jen-Hsun Huang in zijn leren jasje het podium op en overviel ons met een flinke speech. Wat weten we zeker? De nieuwe lijn Nvidia-GPU’s gaat GeForce RTX heten. De rest is een waslijst aan nieuwe technologieën en marketingpraat waar je gauw het overzicht in kwijt kunt raken. Wat is nou precies wat bij GeForce RTX?
Het eerste wat opvalt is dat de G in GTX plaats heeft gemaakt voor een R. De reden hiervoor is dat de hippe nieuwe technologie die Nvidia gebruikt “real-time ray tracing” heet. Dat is de grote crux van de nieuwe GPU-lijn. Daar hoort natuurlijk een nieuwe naam bij. Maar wat is real-time ray tracing?
Ray-tracing
Ray-tracing is een manier om driedimensionale beelden te genereren, waarbij je de loop van elke lichtstraal in een lichtbron in je scène volgt. Je kunt daarbij dus per lichtstraal berekenen wat ermee gebeurt als er een bepaald oppervlak geraakt wordt, wat leidt tot realistischere reflecties en het correct afbuigen van licht. Voorheen was deze techniek simpelweg te zwaar om in real-time te berekenen, zoals dat bij games zou moeten. Nvidia heeft ervoor gekozen om speciale RT-cores toe te voegen aan de GPU, die zich enkel met deze berekeningen bezighouden.
Er werden gameplaydemo’s getoond van onder andere Shadow of the Tomb Raider en Battlefield V, inclusief ray tracing. Het eerste wat daarin opviel, is dat de belichting en in het bijzonder hoe de schaduwen vallen er vele malen realistischer uitziet dan voorheen.
De nieuwe chip-architectuur van Nvidia heet Turing en wordt neergezet als een bijeenraapsel van verschillende technologieën. Dit is gedaan omdat zelfs met speciale RT-cores het volledig ray tracen van een 3D-game toch te zwaar wordt. Daarom gebruikt Turing verschillende technologieën naast ray tracing, zoals rasterization. Dit is het vertalen van een driedimensionaal digitaal object naar een veld van pixels, zodat je monitor het kan weergeven.
Andere cijfertjes
De wat meer oplettende fan zal zijn opgevallen dat Nvidia andere maatstaven hanteert om de kracht van de GPU’s te kwantificeren. De meesten zullen wel eens de term TeraFLOPS gehoord hebben. FLOPS staat voor Floating Point Operations per Second en duidt dus het aantal 32-bit floating point berekeningen aan die een chip per seconde kan leveren. Deze maatstaf was echter nergens te bekennen tijdens de keynote. In plaats daarvan had Huang het ineens over Gigarays per seconde.
Vermoedelijk is dit een soort berekening van het aantal ray tracing-berekeningen dat de chip per seconde kan uitvoeren. Huang zei dat de kracht van de oudere 1080 Ti te vergelijken is met 1,21 Gigaray/s, waar de 2080 Ti op 10 Gigarays/s draait. Bijna tien keer sneller dus, zou je zeggen! Let wel: gigarays per seconde is een niet-traditionele eenheid van rekenkracht, dus neem deze cijfers altijd met een flinke korrel zout tot er reviews en benchmarks bekend zijn. Naast de RT-cores voor ray tracing zitten er in de Turing chips ook zogenoemde Tensor Cores. Dit zijn processorkernen die gemaakt zijn voor berekeningen rondom kunstmatige intelligentie.
Om de gezamenlijke rekenkracht van de verschillende kernen op de chips te kwantificeren heeft Nvidia de eenheid RTX-Ops bedacht. De 2080 Ti haalt 78 Tera RTX-Ops, de 2080haalt 60 Tera RTX-Ops en de 2070 haalt 45 Tera RTX-Ops. Dit is dus wederom op papier niet te vergelijken met vorige generaties, gezien daar andere eenheden gebruikt werden. Wat we wel weten is dat de RTX-lijn een sneller geheugen heeft, namelijk GDDR6 in plaats van GDDR5. Dit nieuwe geheugen zal op de GeForce RTX 2080 dankzij een verbeterde 256-bit bus in staat zijn tot wel 447 GB/s aan bandbreedte. Dat is ruim 27 procent meer dan de GDDR5X in de GTX 1080. Daarnaast komt SLI terug: alles wat we daarover weten, is dat je meerdere kaarten aan elkaar gaat kunnen koppelen via de nieuwe NVLink connector (mits ondersteund).
NGX?
Een ander groot onderdeel van de keynote was de nieuwe NGX workflow. NGX is Nvidia’s nieuwe deep learning-technologie, waarmee ze kunstmatig intelligente graphics willen introduceren. Ze sturen een hele hoop data naar een supercomputer met daarop een neuraal netwerk, waarvandaan het systeem vervolgens een vaardigheid kan leren. Denk hierbij aan het inkleuren van foto’s, het omhoog schalen van lage resolutie beelden of zelfs het creëren van realistische CGI.
Wat betekent dit voor de gamers onder ons? Een van de technieken die Nvidia liet zien was het gebruiken van Deep Learning Super Sampling (DLSS) als alternatieve vorm van anti-aliasing. 3D graphics hebben vaak last van kartelige randjes, zeker als het gaat om kleine details. Een AI kan aangeleerd worden om op zoek te gaan naar deze randjes en rondom die locaties de resolutie op te schalen. Dit zorgt voor minder kartels in het beeld en dus voor een mooiere ervaring, zonder dat het gigantisch veel extra rekenkracht moet kosten.
Hoe wil Nvidia dat voor elkaar krijgen? Niet iedereen heeft immers een supercomputer in z’n schuur. Het mooie van deep learning-systemen is dat alleen het initiële ‘trainen’ van de software op een supercomputer geschiedt. Zodra het systeem weet hoe het die kartelranden moet aanpakken, kan het als een vrij klein stukje software losgelaten worden op games en andere applicaties. Dit kan zonder dat het daar gigantisch veel rekenkracht voor nodig heeft. De AI-aangestuurde grafische trucs zullen vermoedelijk niet gelimiteerd zijn tot de nieuwe RTX-lijn, maar ook gaan werken op oudere videokaarten van Nvidia. Het grootste obstakel blijft zoals gewoonlijk ondersteuning vanuit de game-ontwikkelaars.
Het lijkt duidelijk dat Nvidia een nieuwe manier van grafisch rekenen wil bereiken met de GeForce RTX-lijn. Met nieuwe chips, real-time ray tracing en AI-applicaties klinkt het allemaal als de videokaarten van de toekomst. In hoeverre we dit ook in daadwerkelijke prestaties terug gaan zien, moeten we nog afwachten. Dat zal namelijk pas uit benchmarks gaan blijken.