L' INTEL fa girare QW in Ray Tracing (OMG)

questa notizia e il video che si vede è letteralmente spettacolare....
il Cryengine2? preistoria

http://www.tomshw.it/news.php?newsid=14543








se andate sulla pagina di YT potete vederlo in qualità alta.

praticamente, è da circa un paio d'anni che in ati stanno sviluppando un motore di ray-tracing da far girare su una gpu, per l' occasione hanno usato le nuove hd4870, il risultato è quello che vedete a video, credo distruggendo ogni possibilità di intel di entrare in tale campo ora , a meno che non volete paragonarmi il video qui sopra ( realizzato con una scheda da 250 euro) con le immagini obrobrio in prima pagina di et.qw ( realizzati con un sistema 16 core in parallelo dal costo 10000 euro buoni )



da quel poco\nulla che ho visto a riguardo del ray tracing fino ora ( compreso quelle foto schifezza di enemy territory in prima pagina ), credo che la cpu non sforerà nel campo della grafica sormontando le GPU, o se questo mai accadrà, sarà quando avremo una crescita tecnologica del parallelismo tra cpu ( 16\32 core in parallelo) e un "blocco" tecnologico delle gpu. ma come avete detto voi, una gpu già oggi è come un centinaio di piccole cpu in parallelo , e non vedo come anche queste non possano crescere in parallelismo come le cpu.


la differenza, e che oramai , cpu e gpu stanno diventando la stessa cosa.
il problema dei processorini delle gpu è che sono a sedici bit
poi non mi è chiara una cosa.
se ogni unità deve avere accesso alla scena globale per sapere come colorare il raggio, ognuno deve poter avere una cache dei dati di dimensioni notevoli dove la scena è caricata oppure basta la memoria centrale condivisa da tutti i piccirilli ?
è uno dei problemi più grossi infatti... il rendering "globale" ha bisogno di tutta la scena, non bastano le conoscenze "locali" di luce e oggetto per stabilire un colore.

non so, a me continua a sembrare fantascienza... certo che se il rendering del video postato sopra è real-time...

dice che può girare sulle GeForce, ma gira più lento perché "manca l'unità di tassellation". Tassellation = Radiosity = cazzi amarissimi
si, il video postato sopra è tutto in real time, questo video fa vedere come si muovano liberamente nella scena con la telecamera ,





certo, da li a far un livello per un videogioco ce ne passa in potenza di calcolo eh la scena dura 8 secondi netti, però era per dire che imho sarà una combinazione di tecniche di rendering come queste ( raster-radiosity-raytrace) a farla da padrone in futuro, e le gpu di oggi ( sopratutto ati ma arriverà anche nvidia) sembrano perfette per questo, sopratutto per la loro mostruosa potenza di calcolo ( la radeon 4870x2 che uscira tra 1 mesetto macina 2.4 teraflop di operazioni, e stiamo parlando di una vga da 400 euro, una cpu non si avvicina a una frazione di tale potenza in virgola mobile )
Non sono la stessa cosa i calcoli di una GPU e una CPU altrimenti le GPU dominerebbero il mondo.

Cosi non e'.


E cmq tornando alla Nvidia certo fa un pochetto ridere che si e' sempre impiccata l' ATI per le ombre cubettose (olltre che per i driver va bè) poi viene fuori che la nvidia e' "zoppa"

Ma la nVidia non e' la prima volta che calcola accuratamente cosa serve "attualmente" per fare una scheda video veloce omettendo il "superfluo"...tanto quando servirà tale scheda sarà morta e sepolta.

Trovo anche giusta questa scelta perche' se la cosa e' attualmente superflua e' solo un esercizio di stile e nient'altro.

Tornando a sto Ray,prima della prossima generazione di console tanto non vedremo nulla,si e' già capito che le DX10 verranno saltate a pie pari diventanto le DX + inutili della storia.
se quel video della ati è solo vero per metà...siamo davanti veramente al futuro :O

Ma credi davvero che quella scena sia renderizzata in tempo reale in ray tracing?
E' vero che ati lavora da tempo su una implementazione del raytracing nelle proprie GPU (che da R600 sono in grado di utilizzare), ma quella scena è al 95% rasterizzata, ci sono solo alcuni effetti aggiuntivi di radiosity. Ed è appunto la dimostrazione di come attualmente il raytracing in tempo reale non serva a nulla, perchè quel poco che serve per ottenere quel risultato lo calcoli già con la normale cpu o delegando in parte gpu già in commercio.

Chiariamoci: il ray tracing ha un grosso potenziale, consente di fare cose che in rasterizzazione puoi solo inventarti (quello che per l'appunto sono gli shader, dei trick per creare dal nulla effetti di riflessione e rifrazione).
Ma il prezzo di un rendering così preciso è elevatissimo in termini di calcolo in virgola mobile, al punto che per fare quello che normalmente fa una gpu servono 16 core delle più potenti cpu in commercio. Con che risultato? Una scena a bassa risoluzione, frame rate limitato ma riflessioni e rifrazioni perfette al pixel. Bene, utilizzando una normale gpu si sarebbe renderizzata ad un centinaio di fps la stessa scena a risoluzione quadrupla, ma al posto di quelle perfettamente riflettenti sfere aggiunte da Intel avremmo dovuto ripiegare su "orribili" shader.

Il punto è che le tecniche di rasterizzazione sono, ora come ora, decisamente valide: tramite gli shader si riesce a creare l'illusione di una illuminazione piuttosto realistica, sufficientemente verosimile da non rimpiangere più di tanto quello che in un prossimo futuro sarebbe ottenibile in raytracing che per quanto in termini assoluti tecnica più valida, deve far fronte a degli evidenti limiti di calcolo che non consentiranno MAI (un mai informatico, ovvero non entro i prossimi anni) di sfruttare gli effetti che portano alla renderizzazione realistica di oggetti come quello zippo, perchè un dettaglio poligonale e refrazionale così elevato necessita di miliardi di raggi, che in tempo reale necessiterebbero della potenza di 1500 core2.
Al contrario quello zippo è possibile renderizzarlo ORA, rasterizzato.
Sicuramente non preciso al pixel, sicuramente senza riflessioni precisamente identiche alla realtà, ma con un risultato che al nostro occhio, considerata l'immagine al movimento, risulterebbe analoga perchè in realtà poco importa se l'oggetto riflesso è 2cm più lontano di dove dovrebbe effettivamente essere, non te ne accorgi, quello che conta è quanto "bello" il tutto sia da vedere.

Intel sta posando le basi per il raytracing in realtime, ma è ben consapevole di parlare "al futuribile": Larrabee non sarà "la gpu per il raytracing", ma una soluzione di calcolo parallelo (per applicazioni scientifiche o cluster, in competizione con le GP-GPUcompatibile), comunque compatibile DirectX e che più anche in grado di renderizzare in raytracing. Se fosse pensato in sola funzione di quest'ultima, sarebbe un flop annunciato.

In conclusione, guardate quella tech demo di ATi e rendetevi conto di come se quello è quanto risultato ottenibile subito, con le stesse vecchie tecniche e gpu, va decisamente bene così...ci avviciniamo al fotorealismo senza chiamare in causa un rendering completamente a raggi come avrebbe intenzione di fare Intel.
Quando la potenza in gioco sarà moltiplicata abbastanza (e non parlo di Larrabee, ma di una sua eventuale terza o quarta evoluzione), il discorso potrebbe cambiare...ma non prima
E state certi per quel tempo sia ATi che nVidia avranno pronta una risposta
Sei stato praticamente perfetto.

Secondo te come diventeranno le GPU in futuro ?
che raytracing sia in tempi brevi allora.

fino ad ora i 4 core etc non sono sfruttati per nulla...

e poi così ci toglieremo dalla balle tutte ste schede video con dissipatori improbabili, che fanno solo casino e ciucciano watt a iosa.

tanto i 16 core in 2 anni saranno commercializzati, no? Bene. in 5 anni avremo i 32 core o chissà cosa
Ma soprattuto bisogna che si schiodano per sempre da ste DX9 e non fanno finta.

Tra poco ci prendo la pensione...
anche io son del parere che pure le dx10 possano andare a quel posto...

per me il discorso raddoppio i core per la grafica è privo di senso perchè come qualcuno di voi ha detto non alla prima ma alle successive generazioni riusciranno a fare qualcosa... alla prima gen è tanto se riusciranno a fargli fare i calcoli in tempo reale per il rendering e stop.

Quel che cerco di dire è dove sta l'innovazione? Aumentare il realismo attraverso solo la grafica non ha senso. Preferisco avere qualcosa di meno realistico visivamente renderizzato in modo fittizzio piuttosto che una cosa che guardandola sembra vera e poi si comporta come nei giochi di 10 anni fa tutto scriptato o con animazioni che simulano quello che dovrebbero fare.

Io mi aspetto di vedere gli oggetti che hanno proprietà simili a quelli reali, che reagiscono in base ai materiali e alla loro costruzione.
Del tipo questa bottiglia cade in terra si rompe non perchè c'è l'animazione della bottiglia rotta, si rompe perchè si deve rompere.


si sempre che riescono a far lavorare 32 core in 150-200 watt c'è un limite a tutto
e poi ok ho 32 core basta che non devo metterci anche una gpu da 64 affiancata mi sta bene...
sarebbe ridicolo che si va avanti come ora, dove entrambe le cose aumentano parrallelamente e sono necessarie entrambe...