Skip to main content

Cosa ci lascerà in eredità la current-gen? - articolo

Oggi come domani, il segreto è aggirare i limiti.

La storia di ogni generazione console tende ad assomigliarsi: giochi visivamente sempre più complessi arrivano sul mercato anno dopo anno, grazie a un costante miglioramento del software, fino a che il ciclo commerciale termina per ricominciare con la generazione successiva.

Il beneficio di disporre di hardware ad architettura fissa permette agli sviluppatori di imparare sempre meglio le piattaforme su cui stanno lavorando e di spremerle al massimo a ogni progetto successivo. L'attuale settima generazione è durata più a lungo di tutte non solo per un motivo prettamente commerciale (la necessità di rientrare dei costi di produzione e di sviluppo particolarmente onerosi) ma ha anche sperimentato le più importanti migliorie tecnologiche sul fronte dell'evoluzione delle tecniche software dall'avvento dell'era 3D.

Da un punto di vista puramente tecnico, al giorno d'oggi è raro trovare in commercio giochi programmati male, a conferma di come l'attuale gen sia matura e conosciuta quasi in ogni minimo dettaglio da parte dei veterani dell'industria, grafici e programmatori. Tuttavia, non serve avere la memoria particolarmente lunga per ricordarsi di come nel 2004-2005, durante il tramonto della PS2 e dell'Xbox, la percentuale di titoli mediocri fosse ancora elevata, al punto da rendere improponibile il paragone con l'eccellenza tecnica del mercato tripla A di oggi.

Chiaramente i giochi, i budget, e l'industria stessa erano di dimensioni minori rispetto alle attuali ma soprattutto mancava quel sottobosco di conoscenza condivisa che eventi come la Games Developers Conference e il SIGGRAPH oggigiorno promuovono tra gli sviluppatori in termini di tecnologie e metodi di lavoro.

"Da un punto di vista puramente tecnico, al giorno d'oggi è raro trovare in commercio giochi programmati male"

Sarà questa la qualità visiva della prossima generazione di console? Non possiamo dirlo per certo, ma sono in molti a sperarlo...

Proprio sotto questo punto di vista, è interessante rendersi conto di come proprio alcune tecnologie di nuova concezione sul fronte del software abbiano permesso di ottenere una qualità dell'immagine e prestazioni sempre migliori andando ad aggirare le limitazioni delle attuali console. La prima è il cosiddetto rendering differito, ed è una tecnica oggigiorno di largo impiego che risale addirittura ad una decina di anni fa nella sua prima incarnazione. Si trattava un gioco per Xbox dedicato a Shrek realizzato da DICE Nordamerica. Variazioni di questa tecnica furono poi visibili anche al lancio dell'Xbox 360 con Perfect Dark Zero, seguito dall'impressionante GTA 4 e dalla sua migliore incarnazione, ovvero Killzone 2 di Guerrilla Games.

Il rendering differito è una tecnica che riesce ad ovviare a uno dei problemi cronici legati alla tradizionale architettura di rendering di una scena tridimensionale, ovvero l'illuminazione. Normalmente fino ad oggi l'introduzione di fonti di luce addizionali era sinonimo di una proporzionale mole di calcoli aggiuntiva, che gravavano sul processore grafico e quindi sul frame rate complessivo di una scena.

"Il rendering differito è una tecnica oggigiorno di largo impiego che risale addirittura ad una decina di anni fa"

Il rendering differito elimina buona parte di questo problema aumentando il numero e il genere di fonti di luce senza impattare la performance, come accade con i sistemi tradizionali. Le varianti del deferred rendering sono numerose e dovute al modo in cui la tecnica è stata implementata all'interno dei vari motori grafici, ma il concetto di fondo è lo stesso ed è piuttosto chiaro che si tratta di una componente ormai consolidata nell'arsenale dei migliori sviluppatori moderni.

La comparsa del deferred rendering è la conferma di come la necessità di risparmiare risorse anche su console che cinque anni fa erano già nel pieno della maturità fosse già particolarmente urgente. La necessità di ottimizzare e ottenere risultati irraggiungibili con tecniche tradizionali è alla base della seconda pedina sulla scacchiera dell'innovazione tecnica introdotte da questa generazione console, ovvero i filtri post processo dedicati alla correzione antialias.

Uncharted 3 è sicuramente uno dei titoli che sfrutta al meglio le capacità della console Sony, con rendering differito e niente caricamenti.

Eliminare le scalettature dai profili diagonali di un oggetto in una scena tridimensionale è da sempre stata una priorità della grafica applicata al videogioco: se su PC il tradizionale Multisample Antialias ha sempre ottenuto ottimi risultati grazie alla brutale potenza di calcolo combinata di CPU, scheda video ed enormi quantità di RAM, su console questo approccio non è quasi mai stato possibile proprio a causa della scarsezza di banda e soprattutto della memoria video di Xbox 360 e PlayStation 3. Le soluzioni post-processo sono invece basate su algoritmi di individuazione delle scalettature che correggono i bordi non nel momento in cui la scena viene formata a livello tridimensionale ma quando l'immagine sta per entrare nel frame buffer ed è già un fotogramma in due dimensioni.

"God of War 3 ha rappresentato il primo chiaro segnale che il post-process anti-aliasing era la strada da seguire"

La prima tecnica ad aver visto la luce sotto questo aspetto è stato il Multi Layered Antialiasing (MLAA) visto in azione in God of War 3, che ha rappresentato il primo chiaro segnale che il post-process anti-aliasing era la strada da seguire. Quasi immediatamente il testimone è stato raccolto da NVIDIA con l'FXAA (Fast Approximate Antialiasing), da tempo divenuto la soluzione preferita da parte di tutti gli sviluppatori Xbox 360 ma utilizzato sempre più frequentemente su titoli di alto profilo per Playstation 3 e PC.

Se il rendering differito è il futuro, come testimoniato dalla solidità del motore Frostbite 2 di EA pensato per questa e la prossima generazione di console, siamo altrettanto sicuri del fatto che le tecniche di post-processo siano una soluzione di ripiego (per quanto molto ingegnosa) pensata per aggirare le limitazioni dell'attuale hardware console. NVIDIA, AMD e altri sviluppatori indipendenti stanno già lavorando a soluzioni avanzate basate sugli stessi principi della correzione post processo ma per migliorarne le prestazioni, visto che gli attuali algoritmi hanno spesso la tendenza a generare artefatti o a sfocare l'immagine eccessivamente. I risultati sono ancora altalenanti ma è chiaro che la next-gen punterà a mantenere performance ottimali a risoluzioni di 1080p, con correzioni antialias di livello superiore impossibili da raggiungere con le attuali console.

God of War 3 ha rappresentato il primo chiaro segnale che il post-process anti-aliasing era la strada da seguire.

Il terzo elemento ad aver contrassegnato l'evoluzione tecnica di questa generazione è sicuramente la risoluzione dinamica: si tratta di una tecnica anche in questo caso mirata al risparmio di risorse video per mantenere il più possibile il frame rate elevato. Il trucco è semplice: invece di mantenere invariata la risoluzione nativa del gioco per tutto il corso del suo svolgimento, il motore di rendering anticipa le situazioni che porteranno a un calo del frame rate scalando dinamicamente la risoluzione verso il basso direttamente in gioco.

"Il terzo elemento ad aver contrassegnato l'evoluzione tecnica di questa generazione è la risoluzione dinamica"

Una volta che la situazione si calma succede l'esatto contrario, il tutto con l'obiettivo di mantenere il frame rate desiderato, un fattore importante nei titoli in cui la reattività del sistema di controllo è strettamente correlata a quello che accade a schermo. Il primo Wipeout HD utilizzava questa tecnica per mantenere I 60 frame al secondo a 1080p scalando a 720p quando necessario, in seguito altri titoli l'hanno implementata con successo, come RAGE, Motorstorm Apocalypse e in genere molti racing game. Anche i picchiaduro sono recentemente entrati a far parte del club con Ninja Gaiden 3 e Tekken Tag Tournament 2.

Molte delle evoluzioni che abbiamo testimoniato nel corso di questa generazione non sono neppure limitate al puro e semplice rendering. Se pensiamo infatti al flusso di gioco ininterrotto di God of War e di Uncharted, che non prevedono nemmeno un caricamento, è evidente come molto sia stato fatto per ottimizzare le performance dei titoli qualitativamente migliori anche in altri campi di sviluppo.

Quindi l'attuale generazione può essere presa ad emblema della costante innovazione ed evoluzione tecnica? Non proprio: se le voci di corridoio saranno confermate, pare che la prossima console di Sony adotterà un'architettura x86 con processori AMD di tipo tradizionale.

Battlefield 3 su PC è l'antipasto più fedele di quella che sarà la qualità della prossima generazione console in termini di antialias e dimensioni dell'area di gioco.

Questo significa l'abbandono del Cell che vedeva otto coprocessori ultraveloci agganciati ad un'unità centrale deputata coordinarne il lavoro. Viste le difficoltà di programmazione cui molti studi sono andati incontro, la realtà dei fatti è che per la stragrande maggioranza dei titoli multiformato, la PS3 è sempre stata utilizzata al di sotto del suo potenziale, adattandosi a fare da piattaforma di sviluppo secondaria che quasi sempre mostrava la corda nel confronto diretto con l'Xbox 360, come spesso hanno testimoniato le nostre Digital Foundry comparative.

"Quando gli sviluppatori sono riusciti a sfruttare al massimo le caratteristiche della PS3, i risultati sono stati eccellenti"

Quando l'abilità tecnica degli studi di sviluppo come Naugthy Dog è riuscita a sfruttare al massimo le caratteristiche inedite della Playstation 3, quasi sempre i risultati sono stati eccellenti grazie alla possibilità di demandare alle GPU satelliti compiti gravosi come la gestione del Vertex e degli effetti di post-processo quali anti-aliasing and motion blur.

L'uso approfondito di questa tecnologia messa a punto da Sony è ciò che rende giochi come God of War 3, Uncharted 3 e The Last of Us spettacolari da vedere. Anche se alcuni sviluppatori ne hanno approfondito la comprensione e l'utilizzo, non c'è dubbio che se queste voci saranno confermate, in molti tireranno un sospiro di sollievo alla dipartita del Cell per questioni di pura convenienza nelle procedure di porting. Ciò però significherà la perdita di molto del know-how di alto livello accumulato finora: un peccato in termini di evoluzione dei processi di creazione del videogioco e una sconfitta tecnologica non da poco da parte di Sony sul fronte dell'innovazione tecnica.

La buona notizia è che, per quanto le nuove console avranno i loro punti di forza e di debolezza, gli sviluppatori non dovranno rimettersi al lavoro per imparare a conoscerne i processi legati all'architettura strutturale. La migrazione da Xbox e PlayStation 2 all'attuale generazione fu piena di problemi dovuti al fatto che ci si spostava, in particolare nel caso della PS3, a un sistema multicore in cui si dovevano gestire più processi in parallelo per ottenere il massimo dall'hardware a disposizione. È stato in questo passaggio che le conoscenze sviluppate sul Cell torneranno sicuramente utili, perché ormai i programmatori si sono fatti le ossa con questo genere di approccio che sicuramente pagherà fino alla fine di questo decennio.

Il CryEngine 3 è uno dei motori grafici già pronti per la prossima generazione di console. Ecco ciò di cui è capace...

Per tale motivo, la next-gen sembra offrire lo spunto per una progressione del know-how nettamente superiore, in concomitanza con un passaggio da una generazione all'altra molto meno traumatico. Il fatto che il CryEngine 3 e il Frostbite 2 siano già qui rende chiaro che i maggiori sviluppatori arriveranno preparati all'appuntamento con le prossime console.

"Le CPU in grado di offrire fino a 12 core la dicono lunga sullo spazio di manovra a disposizione degli sviluppatori"

La dimostrazione è la superiore qualità tecnica de facto di molti titoli PC odierni, che da ormai qualche anno si possono considerare come un preciso antipasto di ciò che ci attenderà con le prossime Xbox e Playstation. Le CPU in grado di offrire fino a 12 core (due thread ogni core fisico sulle ultime CPU esacore di Intel) la dicono lunga su quanto spazio di manovra disporranno gli sviluppatori di alto livello come ad esempio DICE e la loro serie Battlefield, fatte salve eventuali limitazioni alla quantità di RAM disponibile.

Mentre molti giochi prendono a riferimento ancora i vecchi processori dual core, l'esperienza accumulata con i PC economici di riferimento usati nelle prove comparative della Digital Foundry ci insegna che ci si sta progressivamente spostando a un livello superiore; musica per le orecchie di AMD che ora offre processori multicore a prezzi stracciati.

Oltre a questo, è altrettanto ovvio come le DirectX 11 di Microsoft rappresentino ormai lo standard per quanto riguarda il PC gaming, e saranno sempre più centrali anche nello sviluppo di titoli della prossima generazione Xbox, che al momento viene identificata da stampa e addetti ai lavori con il nome in codice di Durango.

Le prime voci non confermate dicono che i motori grafici attualmente utilizzati per lo sviluppo di titoli PC come il CryEngine 3, il Frostbyte 2, l'ID Tech 5 e L'Unreal Engine 3, possono essere facilmente portati su un'architettura a 64-bit per funzionare senza problemi sulle prossime piattaforme di Sony e Microsoft e la Wii U di Nintendo.

Una fisica estremamente raffinata non è alla portata delle console attuali: vediamo cosa mette sul piatto oggi una PC equipaggiato con una GeForce GTX.

Il legame tra Xbox 360 e le DirectX 9 è stato molto forte, ed è logico pensare che altrettanto solido sarà quello tra le DX11 e la prossima console Microsoft. Meno chiara è invece la strategia di Sony con la prossima PlayStation: pare che le OpenGL oggi usate saranno le API di riferimento ma solo recentemente sono state aggiornate a un livello di funzionalità simile a quello delle attuali DirectX 11.

"La progressione tecnologica sarà molto più progressiva in questa transizione rispetto a quella precedente"

È quindi piuttosto chiaro come i produttori di hardware abbiamo imparato dagli errori del passato e come la progressione della tecnologia per giocare sarà molto più progressiva in questa transizione rispetto al salto in termini di competenze e potenza hardware del periodo 2004-2006.

Fatte salve sorprese nel design, in pochi si aspettano rivoluzioni tecniche nel modo in cui i videogiochi verranno concepiti e sviluppati. Si tratterà semplicemente di un salto generazionale di pura potenza di calcolo basata sugli stessi principi di CPU e processori multicore, che permetterà per un periodo di tempo relativamente lungo di sviluppare simultaneamente due versioni dello stesso gioco: una per la nuova e una per la vecchia gen.

Il prezzo da pagare sarà quello di un approccio conservativo al design e un distacco dalla filosofia innovativa che aveva caratterizzato la concezione della PS3 voluta da Ken Kutaragi attraverso tre generazioni di hardware Sony. Quanto questo appiattimento evolutivo favorirà o penalizzerà l'innovazione del videogioco in senso lato, lo scopriremo probabilmente solo alla fine di questo decennio.

Traduzione a cura di Matteo "Elvin" Lorenzetti.