Di recente sono entrato nel mondo delle tecnologie di upscaling,
prima avevo una 1080 e praticamente da quando ne ho memoria
su schermi piatti, il meglio è sempre stato poter usufruire di
un videogame a risoluzone nativa, il che voleva dire poter
raggiungere i 1080p o quello che erano, e poi smanettare
con il resto dei dettaglio per trovare il compromesso migliore.
Oggi, ci sono un paio di situazioni sulla quale non riesco a
venirne a capo.
-
Di recente ho potuto provare su Far Cry 6, Cyberpunk e BG3
che se io disabilito completamente DLSS, fisso risoluzione
nativa e butto su a manetta tutti i dettagli possibili, ottengo
una resa grafica che è peggiore rispetto ad attivare
l’upscaling in modalità quality (oltre a peggiorare gli FPS);
com’è possibile questo? Da quel che ne so, il DLSS e le
tecnologie di upscaling in generale, eseguono appunto un
upscale dell’imagine via software, per permettere prestazioni
più elevate; non che sia proprio la stessa cosa, ma da che
mondo e mondo per esempio su console del passato che
non riuscivano a raggiungere mai la risoluzione nativa
della tv / monitor, la resa grafica era inevitabilmente tutta
sgranata per via dell’upscaling automatico. Perchè al giorno
d’oggi invece la situazione si è ribaltata? Per logica, per quanto
l’upscaling possa essere intelligente e ben fatto, non dovrebbe
poter eguagliare un contenuto in raster. -
Non riesco a capire il rapporto che c’è tra anti aliasing e
upscaling; se io attivo la tecnologia di l’upscaling si
disabilita l’opzione di poter scegliere il tipo di AA.
Come mai succede questo? Percaso è gia contenuto
nella tecnologia di upscaling?