Di schede video da 600 euro, Raytracing e tanto altro

mah, è che molto spesso è effettivamente implementato male.

full RT tipo minecraft sfido a dire che cambi poco…è che non c’è scheda che regge quell’implementazione in un gioco “vero” :asd:

certo, un po’ come succedeva col pixel shader, tutte le superfici erano “glassate” ed era implementato esagerando, con pessimi risultati
serviva a dire “ehi, il nostro gioco implementa il pixel shader, guarda che figo”

Bard, non è che a ripetere una sciocchezza 10, 20 o 100 volte con toni sempre più perentori l’esternazione ne guadagna in forza e credibilità, sempre una sciocchezza rimane, al limite diventa più virulenta.

Nel caso di Cyberpunk 2077 e il suo RT “ammazza fps” parliamo di tipo il 90% di illuminazione fatto praticamente in path tracing e ha mille effetti su ogni singolo aspetto della grafica e sopratutto su come la grafica si comporta con oggetti che si muovono e interagiscono con lo scenario.

Inoltre adesso il gioco è pure più pesante anche per altre ragioni, vedi la spiegazione fornita dai dev del perché siano pure aumentati i requisiti minimi (hanno rifatto IA e altri sistemi di gioco).

Non mi ricordo mai se sei tu o supalova quello che salta fuori come la marmotta ogni volta che qualcuno nel raggio di 250km pronunzia la sacra formula “raytracing”

Eri tu?

Edit: ho fatto un search. Eri tu :rotfl:

Bard è da vent’anni che, a torto o ragione, mi piace discutere sui forum di questioni legate alla computer grafica nei giochi.
Lo facevo dei tempi della PS2 sul forum di gamesradar quando il RT manco lo usavano in pixar.

Aggiungi che ho giusto iniziato a giocare CP2077 in questi giorni e si stava parlando esattamente di questo nel topic…

comunque no, quello sempre presente e col dono dell’ubiquità quando c’è da parlare di RT è Rosti. :look:

Si ma di solito io ne parlo sempre male. :sisi:

1 Like

Grazie ar cazzo, i driver sono usciti tipo ieri

Eh allora che esempi fai?? :D poi non penso che verrà supportata dato che è una feature del DLSS 3.5…
Sicuramente avrai il Boost degli FPS con una qualità peggiore del DLSS ma sicuramente a quel prezzo è una valida alternativa ma non sempre conviene, ripeto dipende sempre cosa uno cerca…
Poi ti faccio un piccolo SPOILER l’FSR3 lo puoi usare anche con schede Nvidia, è una teconologia OPEN…

Niente si è mutato, quando non capisce più un cazzo si muta da solo…

Pretendevi una risposta?

Non riesci manco a leggere letteralmente una riga di testo senza capirci un cazzo, e fai pure l’offeso se decido di non sprecare altri 5 secondi del mio tempo per premere reply? :rotfl:

Dai torna su WoW

Bello l’edit :asdxd:

Comunque non cambia il discorso, nn è la stessa tecnologia, non è supportata bene in questo momento e non centra un cazzo con il discorso che stavamo facendo, uno se vuole ad oggi spendere 600 euro per una scheda AMD e non 800 va benissimo, nessuno sta dicendo che non si possa fare, solo che perdi tutta la nuova tecnlogia che te chiami “le lucine” quando in realtà è molto altro. Poi possiamo stare ore a discutere dei tuoi gusti e del perchè preferisci fare quella scelta al posto di un’altra, ricordati però che 600 euro non è una fascia bassa, quando spendi quelle cifre forse vorresti avere almeno la possibilità di giocare maxato un qualcosa e non avere feature in meno, posso capire le fasce di prezzo intorno ai 300-400 e li ti posso anche dare pienamente ragione, ma quando superiamo i 600 forse ci penserei un pochino perchè magari la differenza quando spendi queste cifre non esiste.

Non è affatto detto che il ray tracing di nvidia sia la soluzione migliore per il giocatore. Anzi, dati i costi, oggi non lo è. È roba per gente con soldi da spendere, ben conscia che un investimento su una 4000 gli porterà vantaggi solo su una manciata di giochi e, soprattutto, che esiste solo un gioco che sfrutta completamente la tecnologia: cyberpunk.

Investire su un raytracing così spinto non è nemmeno nell’interesse delle sh, visto che ad un aumento dei requisiti corrisponde un decremento della platea. Chi investe nel raytracing di nvidia lo fa perché sponsorizzato da nvidia stessa. È portato così all’eccesso che, anche se di impatto da vedere, è pacchiano e veramente poco applicabile in altri contesti. Il fotorealismo non vede di buon occhio le strade fatte a specchio.

Se dovesse spuntare un rt a buon mercato, anche se qualitativamente peggiore, rischierebbe di spazzare via quello nvidia. È già successo in passato con altre tecnologie proprietarie.

Green, non è supportato nativamente dal gioco ma se gai una serie 7000 il frame generation amd lo puoi già usare lato driver e no, non fa schifo come pa volete far passare e no, la maggior parte dei recensori ha opinioni positive indipendentemente dal fatto che possa essere una soluzione un po’ inferiore a quella nvidia.

Chi ha nvidia ad ora può provarlo solo su due giochi di merda fatti col culo.
Io su dying light 2 zero problemi.

In più ha il vantaggio di essere una tecnologia open e che a quanto pare l’obiettivo è quello di farlo funzionare su tutti i giochi dx11 e 12 attivandolo dal software come sto facendo io su dying light, chiaramente per questo ti serve una amd, che non ha lasciato indietro nemmeno gpu di 5 anni fa.

Anche se può essere un po’ inferiore ha questo approccio open che è indubbiamente migliore per i giocatori rispetto al cagare fuori gente che ti ha preso una gpu della scorsa generazione e con soluzioni proprietarie.

Cioè è per far funzionare l’rt che c’è bisogno degli upscaler e dei frame generation, perché non servono a nient’altro. Giusto per supportare meglio il 4k l’upscaler, ma queste sono soluzioni introdotte per risolvere un problema di performance legato ad una feature introdotta da nvidia.l e che ad oggi effettivamente non da ancora l’effetto wow sperato e ancora malamente supportato pure dai giochi che ne fanno uso, con pochissimi casi buoni tipo cyberpunk o metro.

Anche io sono della stessa idea di bard, e l’ho scritto su techzone settimane fa con dying light 2. Non è nulla di cosi speciale che vale quella mattanza di fps.
Che poi globalmente la resa visiva sia più naturale siamo d’accordo, ma va visto anche caso per caso e situazione per situazione.

Non vale per tutti i giochi e non vale per tutte le situazioni e scenari.

Il ray recostruction pulisce ulteriormente la scena andando anche a mettere una pezza ai casini che può fare a livello di nitidezza l’upscaler, ma come hai detto sono ulteriori fps persi e torniamo nel medioevo ad un frame da console pure su gpu come la 3080.

La nvidia è la maximum figlia di puttana nel settore. Enjoy monopolio.

Che la tecnologia ad oggi la sfruttano bene una manciata di titoli è verissimo, non sono d’accordo però sul fatto che non c’è differenza e soprattutto che questa tecnologia nn sia il futuro, il gap che oramai abbiamo è questo e il miglioramento va solo esclusivamente in quel frangente, la NextGen è l’illuminazione, i riflessi, le ombre, tutti questi aspetti che cambiano un gioco e lo portano ad essere vicino al realismo, tutti gli altri aspetti sono arrivati ad un punto in cui qualsiasi scheda sul mercato anche quella meno costosa ad oggi ti permettono di arrivare facilmente a dei range di FPS altini.

Spingeranno sempre di più verso questo campo, DLSS sempre migliore con tecnologie I.A. per ricostruire quello che in realtà non si riesce ad arrivare con le schede, la “forza bruta” della scheda non sarà più il futuro, quindi anche investire nelle schede AMD (che purtroppo non riesce a valutare il futuro) di fascia alta è una mancanza per il consumer abbastanza netta, inutile girarci intorno con la storiella che non frega un cazzo a nessuno dell’RT, quando usciranno titoli con UnrealEngine5 full RT avere una scheda AMD da 1000 euro e vedere che in RT ti fa la metà che con una scheda da 800 di Nvidia ti fa rodere il culo…

Poi che ognuno è libero di spendere i propri soldi come vuole quello figuriamoci, ma il predominio sul mercato purtroppo ce l’ha Nvidia pur avendo fatto le peggio merdate, alzando i prezzi a dismisura, fregandosene completamente del consumatore.

FSR è lammerda dai.

1 Like

ma è notizia che ho letto in giro che amd ha prorio droppato l’idea di competere nel settore top con nvidia perchè non ci sta dietro, ha anni da recuperare e i chip che usa che compensano l’ia con il raster boostato cominciano a non bastare più

ora magari è solo cyberpunk ma in futuro con ue5 saranno tutti o quasi

pagliacciata no, ma concordo al 100% sul fatto che se un gioco non vi gira bene col RT attivo disattivatelo istant e stigrancazzi, non vedo dove sia il problema

quel + che vi dà nell’impatto visivo generale non vale minimamente gli fps persi, ma mai nella vita…dunque se avete un pc che vi garantisce i 60 col RT attivo ben venga, altrimenti non ci penserei 2 volte a toglierlo

Ma basta con ste cazzate.
Fsr1 era una merda. Dal 2 in poi no e fa il suo dovere.
In 4k le differenze sono minime.
In 1440p idem, io tutta sta merda su schermo bon la vedo su dying light 2.

A 1080p fa cagare, ma al solito se devi usare un upscaler a 1080p con gpu recenti il problema è che grazie a nvidia e sto dlss demmerda ormai gli sviluppatori tripla A ci fanno un sacco affidamento e sfornano giochi demmerda con in testa sta tecnologia, e ti ritrovi brom con una 3060 che bon riesce a fare 60 fps a 1080p… CON DLSS.
Quindi per me già dover usare un upscaler a 1080p senza RT è un problema al di la di tutto.

In più fsr è open e bon richiede hardware dedicato.

Comunque bo, anche la resa visiva non fa schifo. Poi se in 4k o 1440p devi zoommare 500x per vedere le magagne anche sticazzi. First world problem. Che fino a ieri stavate a giocare con il TAA appicciato che smarmellava ogni ben di dio e ora tutti a fare i sofisticati per un po’ di shimmering e artefatti con gli zoom telescopici, come se poi anche il dlss non generasse qualche artefatto.

E giusto per, sono convinto che se vai a fare analisi approfondite il dlss rende una qualità un po’ migliore e nettamente migliore a 1080p, ma smettiamola con sta storia che l’fsr è inguardabile perché non si può sentire.

Allora, ovviamente non è la merda, io non sono di quel parere, dal 2 han fatto passi da giganti, il discorso è perchè usarlo?
Allora se hai una scheda Nvidia hai il DLSS che ad oggi è arrivato ad un livello qualitativo gigante rispetto all’FSR non hai problemi di shimmering e di aliasing che distrugge la comparazione. Su AMD la scelta è mezza obbligatoria ma bisogna fare sempre il solito discorso, su che fasce di prezzo di schede stiam facendo questo discorso?
Ad oggi una 7900 XTX si trova intorno ai 1100 euro con 1150 ti prendi una 4080 perchè dovrei scegliere di comprare AMD?
Magari la 7900XTX va leggermente meglio in ruster ma appena metto DLSS fa peggio sia visivamente che in FPS e appena accende (come dite voi) “le lucine” sprofonda nell’abisso e nn stiam parlando di una scheda da due spicci è comunque una scheda da 1000 e passa euro.

Poi se parliamo di prezzi più bassi come dicevo qualche post fa la convenienza sul prezzo/prestazioni considerando sempre l’aspetto del NON attivare l’RT allora conviene al 100% prendere una AMD…secondo me fino a che nn si arriva a 700-800 euro la scelta va verso AMD appena si arriva a questo range di prezzi non puoi scegliere AMD.

FSR 2 non è lammerda. È piuttosto buono dal 1440p in poi. Provato personalmente su Hogwarts legacy.

Raytracing imo al momento orpelli inutili da lasciare disattivati che tanto non cambio un cazzo.

Sarà la tecnologia del futuro ? Forse…
Quando i motori grafici adotteranno il raytracing come standard di fatto e non saranno solo effetti grafici da attivare o disattivare.