Ad esempio perché non do i miei soldi a dei totali figli della merda che, evidentemente già dimenticato, ha scalato verso il basso tutte le gpu e ha cercato di vendere le 4070ti a cifre folli. Già dimenticati gli unlaunch perché la gente si è accorta che la 4070 aveva la nomenclatura del chip che era delle serie 60?
Poi perché la maggior parte dei giochi gira ancora in raster e le implementazioni RT sono ancora nella stragrande maggioranza dei casi delle robette.
Infine perché tanto come dimostrato da te e la tua 3080 tempo 2 anni e 1000 euro di gpu non valgono più una sega in RT (per ora).
Ah, e deve fare talmente tanto margine che appena sono uscite le 7800xt la nvidia ha droppato il prezzo delle 4070 lisce.
Vogliamo parlare delle 4060? Roba invendibile che va meglio di una 3060 praticamente solo se puoi usare il frame generator.
Oh, io non sono fanboy di nulla in queste cose e amd non è una santa. Ho sempre avuto sia amd che nvidia, ma non riconoscere che la nvidia è tipo la evil corp del settore per eccellenza ce ne vuole.
Poi oh, ha praticamente SEMPRE performato meglio nvidia (in raster è da qualche anno che non è cosi), ma è sempre stata quella delle tecnologie proprietarie, dei gsync a 200 euro sui monitor e via discorrendo.
E non dimentichiamoci che stiamo parlando di giochini. Io vi capisco eh, ma ad una certa bisognerebbe stare a guardare meno le analisi tecniche e a giocare un po’ di più.
AMD è indietro a livello di RT e tecnologie, ma vorrei anche vedere, tipo 20 anni di monopolio nvidia nel settore gpu mi pare la normale conseguenza. Che poi se oggi stesso amd tirasse fuori la tecnologia di fine di mondo non cambierebbe una sega. Nvidia ha la clientela troppo fidelizzata. Quando parli di gpu parli di nvidia.
Merito loro eh, per carità.
Anche questo è vero. Ma ormai la nvidia ha creato questa esigenza. Perché fare 130 fps nativi su un gioco mattone quando ne posso fare 160 upscalati o 250 con frame generation?
Poi con l’RT è praticamente obbligatorio altrimenti anche le nvidia sprofondano nel girone infernale dei 20 fps in nativo.
L’ho scritto nel thread delle gpu. Finalmente posso usare sto famigerato RT dopo 6 anni che se ne parla.
Su dying light 2 lo sto usando perché anche 80 fps mi vanno bene per giocare ad un single player e non ho problemi di stutter o altro. Ho investito un tot di soldi e fino a che posso ed è possibile giustamente cerco di sfruttare la tecnologia. Però ecco, io tutto sto risultato sbalorditivo non lo vedo e mi costa un pozzo di fps.
Ora c’è il frame generator di amd, quindi mi ha letteralmente raddoppiato gli fps anche in rt e da 80 passo a 160 e ho maggiore fluidità rispetto agli 80fps, oltre a poter sfruttare i 240hz del monitor.
Però io ad esempio su questo gioco st’effetto WOW non ce l’ho per un cazzo niente e quindi se uno toglie l’RT per fare più fps non è che sbaglia troppo.
Ho capito che dipende dall’implementazione ma son passati 6 anni e i giochi per eccellenza sono ancora cyberpunk di 3 anni fa e metro exodus del 2019?
Insomma, non benissimo mi pare, soprattutto quando prendi una 3080 e 2 anni dopo te la dai in faccia in RT su giochi demmerda.
Al momento RT e l UPscaling sono solamente dei vezzi per chi ha delle gpu di fascia alta e per farsi le seghe mentali.
Sull RT fino a che non ci saranno giochi interamente fatti con questa features stiamo parlando di aria fritta perché i giochi sono totalmente in raster con gli effettivi aggiuntivi che in certi giochi, salvo mettersi lì a guardare come ebeti il monitor, non li percepisci.
Poi se ho una gpu performante che già in nativa mi garantisce ottime performance vorrei capire perché dovrei UPscalare alla successiva.
Queste tecnologie sono un vantaggio per chi arranca nelle presentazioni, stop.
Purtroppo però ormai il danno è fatto.
Nvidia è riuscita a convincere tutti che ti serve il dlss soprattuto il 3 e avrai una qualità di immagine superiore.
Ora il dibattito si sta spostando sul fatto che non bisogna tanto guardare le performance, ma la pulizia generale dell’immagine che con nvidia e dlss è superiore.
ma tanto anche senza hai la gente che piange che nvidia èmmeglio.
ieri un amico che ha comprato dopo anni di 1050ti una 6800xt, che si lamentava che i driver, che fa solo 60fps fissi prima ne faceva di più…aveva vsync attivo
ma era comunque colpa di AMD
la 580 installata al figlio dava problemi…colpa di amd, non del sistema imputtanato (la scheda è andata tranquilla dopo un re-install)
e via così. è pieno di fanboi nvidia per partito preso, gli altri ripetono cose lette online.
Poniamo il caso che nel prossimo Devil May cry (scelgo questo perché sono un fan della serie ed è un gioco dinamico e veloce) ci sia il massimo supporto a rt, dlss, fsr, xess e salcazzi vari.
Io ho una 7900xt con 5800x3d e gioco a 2k.
Bene, qualcuno mi convinca che possa accorgermi di differenze nel giocare RT/UPscaling ed in raster al massimo del dettaglio possibile della mia config in 2k.
Per dire è uscita la 7800xt che bullizza 4070 e 4070ti in raster. Qualcuno mi spieghi perché dovrei spendere di più per le gpu Nvidia per RT e dlss quando giocando a 2k ( la risoluzione che è in continua ascesa al contrario del 4k) posso maxare tutto senza problemi.
Questi video lasciano il tempo che trovano. I test vanno fatti per bene:
Si le bullizza in raster. Se giustamente te ne fotti dell’RT non ha senso prendere una 4070ti al posto della 7800xt. 150/200€ di differenza per una media del -10% è follia pura.
Sempre stesso discorso, quando superi una soglia di prezzo vuoi giocare al top accendendo qualsiasi Feature aggiuntiva, non esiste che arrivo a 900-1100euro e non ho la possibilita’ di usare l’RT e’ follia pura.
Che poi continuare anche a dire falsita’ riguardo a cosa e’ l’RT, Path tracing, Frame generation e RayReconstruction anche qui si fa disinformazione…O la gente e’ cecata o non comprendo…le differenze sono abissali qualitativamente, magari non in tutti i titoli ma chi le sfrutta bene cambia totalmente l’immersione…
Poi sono il primo a dire che Nvidia sono dei figli della merda ma ad oggi secondo me comprare una scheda AMD sopra le 500-600 euro nn vale veramente l’acquisto…
Però bisogna dare a cesare quel che è di cesare. Gli upscaler (anche l’fsr) ad esempio rendono altri dettagli più nitidi specialmente dalla distanza, ad esempio scritte, cartelloni e cose cosi pure rispetto alla nativa.
Ora magari ha sbagliato amon a metterci la 4070ti, il cui confronto comunque è impietoso in raster considerando la differenza di prezzo, ma la 4070ti la devi confrontare con la 7900xt, non con la 7800xt che si rivela un best buy e ha costretto la nvidia ad abbassare il prezzo della 4070 liscia.
La 7800xt va contro la 4070 liscia.
Ma non è vero niente. È chiaro che se mi fai un gioco con 5000 neon, pavimenti a specchio, corsi d’acqua, pozzanghere da per tutto e vetrate la differenza la noti di più.
La noti anche nelle ombre e luci quando sei dentro l’auto in cyberpunk. Le ombre sono più morbide dove devono esserlo etc etc. Pure l’ambient occlusion è ovviamente più preciso sui punti luce.
Ma oh, togli tutte ste pozzanghere e neon e vedi che se fai blind test alla gente non si accorge d’una fava.
Io ieri provavo a mettere e togliere l’RT su dying light 2 e a meno di non stare li a farmi le seghe mentali la differenza non giustifica gli fps che si mangia. Guarda caso un gioco dove non ci sono pozzanghere, neon ovunque e asfalto fatto di marmo lucidato.
Poi è indubbio che l’immagine sarà migliore sempre e comunque con RT rispetto a senza, ma non passiamo da “niente effetti luce e riflessi” a “e luce fu”. Stiamo passando da anni e anni di sviluppo e tecnologie e magheggi per effetti luce e riflessi vari vs RT.
È proprio quando le differenze in molti giochi non sono cosi marcate che ti rendi conto del lavoro eccellente svolto sulla grafica. Poi ovvio, mi metto il pavimento a specchio e le pozzanghere su una città al neon e il risultato è più evidente.
Mettilo su un red dead redemption 2 e fammi vedere la differenza cosi marcata. Si, al solito, nelle pozzanghere di fango dopo che ha piovuto e nei corsi d’acqua, fine.
In certi frangenti secondo me, per spingere un po’ la tecnologia, è anche troppo marcato.
Per quanto riguarda il discorso spendere 900-1100 euro e non avere la possibilità di usare rt è esattamente quello che sta succedendo. Quanto hai speso per la 3080? Quanti fps fai in RT su cyberpunk con l’ultimo aggiornamento?
Ah, come scusa? Nvidia non ti ha dato accesso al frame generator? Brutta storia bro.
Ecco perché ho preferito spendere 800 euro per la 7900xt. Per ora in RT ci posso giocare ma non gli do cosi tanto peso. Tanto già l’anno prossimo, al prossimo tripla A marchettaro per l’RT, tutte le gpu saranno da buttare al cesso e ci sarà bisogno dellla rtx5090ti da 3500 euro.
Da qualche parte bisognerà pur cominciare con sto RT, sono anche d’accordo, ma deh, cazzo se la stanno facendo pesare sta cosa.
Non so mica, ad oggi la paghi 850euro e giochi a Cyberpunk a 90 fps tutto maxato completo senza compromessi…Levi la parte del RT e qualsiasi gioco ad oggi lo giochi sopra i 100 Fps tranne le schifezze fatte male…
Ti compri a 1000 euro la 7900xtx e su Cyberpunk non puoi giocare in RT a quei livelli, non hai il recontruction, su altri giochi con RT va peggio, levi l’ RT e va 40 fps sopra…
Cestinarla tra due anni mi pare eccessivo, casomai la vendi e compra la gen nuova. E penso che sara’ piu’ difficile fare lo stesso con una 7900xtx tra due anni…