[lnkForumImage]
Download FREE Software.

Confronta i prezzi di migliaia di prodotti.
News Forum Italiano
 Home | Login | Registrati | Ricerca 


 

Forums >

it.comp.giochi.sviluppo

L'incubo dell'antialiasing e le tecnologie morte dei nostri tempi

Champagne!

16/12/2011 23:49:33

Di recente mi sono imbattuto in un nuovo incubo computer grafico, come se
già non ne avessi avuti abbastanza: l'antialiasing. Come ben sapete il più
valido e famoso è il multisample antialiasing. Tuttavia adesso sorge un
"piccolo" problema: è inutilizzabile nel deferred shading ed in tutti i post
process!!! Si potrebbero tentare degli approcci per integrarlo ma sono tutti
negati da veri e propri bachi concettuali nell'architettura delle api e
delle schede grafiche odierne, ad esempio:

- Possibilità di renderizzare in multisample solo su FBO di tipo render
buffer, ma non sugli FBO di tipo texture (grandissima lacuna)

- Impossibilità di utilizzare i render buffer come ingresso di lettura per i
fragment shader al posto delle texture (altra grandissima lacuna)

- Conversione lenta o imprecisa da render buffer a texture (il colpo di
grazia)

Adesso, com'è possibile che questi geniacci siano cascati in un requisito
così fondamentale come l'antialiasing? Cosa ben peggiore, hanno dimostrato
di capirci ancora meno escogitando una porcata chiamata post-processing
antialiasing, che si limita a prendere un'immagine in ingresso e tornare
un'immagine in uscita con i bordi smussati! Non è antialiasing, è solo un
filtro di smoothing un po' rimaneggiato, aaaargh, orrore! Questi hanno
dimostrato di non capire nulla di computer grafica e di teoria
dell'informazione, infatti il risultato fa pena perchè non puoi estrapolare
informazione dove non esiste! Dal mio punto di vista, invece di escogitare
dei comodi tappabuchi per i videogiocatori medi che si sono ciecati a tal
punto da non capire la differenza, avrebbero dovuto risolvere questa
terribile lacuna assieme a tante altre:

- Potenziamento del forward shading via hardware, così da rendere obsoleto
il deferred shading che è troppo dispendioso e reintrodurre l'ottimo
multisample antialiasing che arriva fino a 16x senza un calo sostanziale
delle performance (la FXAA arriva ad un misero 3x fakkato)

- Estrapolazione durante il foward shading delle informazioni utili per gli
effetti di post processing (bloom effect, depth of field, etc).

- Supporto automatico per il depth peeling, così da rendere fattibili le
maledettissime trasparenze con le stesse luci degli oggetti opachi (finora
la più grossa limitazione anche negli engine del calibro di unreal 3)

- Supporto delle luci globali, o quanto meno un supportino almeno per le
ambient occlusion!

- Rimandare il raytracing via GPU a quando le nanotecnologie saranno
diventate uno standard de facto! Per adesso concentratevi sull'enormi
vaccate concettuali dei vostri prodotti, invece di riciclare la solita
spazzatura da decenni aumentando la potenza e quindi il consumo di watt!

Mi domando io, ma perchè queste teste di cavolo in tanti anni di
potenziamenti da vomito e produzione di massa di schede grafiche per tutti i
tipi di mercato (ne esistono almeno 5000) non hanno pensato a risolvere
questi fastidiosissimi problemi? C'era tanto da spendere sopra il CUDA e
qualche altra schifezza improponibile per il vasto pubblico, e non su temi
utili che avrebbero migliorato la qualità grafica delle applicazioni e reso
la vita degli sviluppatori meno infernale? (leggasi come: produttori di
Crysis e compagnia bella gli unici con sufficienti risorse umane da poter
tappare tutti i buchi di questi incompetenti che producono schede video). Mi
stanno facendo rimpiangere i tempi in cui si faceva tutto via software e non
dipendevi da nessuna scheda video, i prodotti facevano schifo, però almeno
qualcosa di originale usciva fuori senza attendere i tempi di mercato. Qua
vedo solo vaccate dispendiose e tappa buchi.

ps: era tanto urgente la tesselation quando non si può fare manco
l'antialiasing con il deferred? Suvvia.