Apple vs World: Occhio della madre edition (Tv & Infotainment)

La linea LG OLED ha refresh rate variabile, può andare a 50hz se gli passi un input hdmi con quella frequenza

Cmq L ho già detto ma vorrei ribadirlo perché so che qualsiasi cosa dico c’è sempre il bias di pensare che sto parlando di qualcosa di Apple, ma sta feature c’è in tanti altri dispositivi, basta cercare su Google primo risultato per firestick

https://www.reddit.com/r/fireTV/comments/yzvh59/should_i_have_match_frame_rate_on_or_off_on_my/

ok almeno adesso ho capito di che cavolo stai parlando.

comunque si ti confermo che non ho mai sentito di televisori a refresh rate fisso 50hz. e senza un televisore o monitor che supporti vrr (e scenda a 45hz) te ne fai poco. onestamente credo tu te ne faccia poco comunque, tanto un flusso video è estremamente differenta da un videogioco, mica vedi tearing o altri artefatti porcheria…

Eh dipende sempre appunto da come quei frame mancanti vengono generati, ci sono tv con preset aggressivi che applicano blur o altre robe e spesso è palese che ci sono alcuni movimenti che son troppo “fluidi” non so è la definizione esatta ma sembra innaturale (almeno per me)

Con sto setting ti togli ogni dubbio , e assieme a Dolby vision ti blocca il poter far “danni” con altri settings.

Quindi la sintesi è che non serve letteralmente ad un cazzo come aveva detto ore fa frattacchia

3 Likes

quei settings solitamente sono legati ai settings “sport” e roba simile.

basta disattivarli.

comunque la soluzione è una ed è semplice: un bel crt :dunno:

3 Likes
1 Like

Eccolo è lui :smiley:

…basta spegnerlo, di solito di default è attivo solo in modalità gaming o sport dei televisori

Basta fare tante cose giuste nella vita e tutto va meglio :smiley:

1 Like

Invece la Apple fa le cose giuste al posto tuo :lode:

1 Like

Prima che si torni nella confusione, la questione é questa:

Scena (analogica) → sensore (digitale, pattern Bayer, con la sua gamma dinamica) → codec di registrazione → eventuale codec intermedio → editing → color correction → finalizzazione e encoding su vari codec → distribuzione → decoding → visione sul dispositivo.

Come vedete la strada di un segnale è lunga e continuamente variata, per questo dire “come lo vede il regista, la scena originale, l’ occhio della madre” è una cagata da marketing.
Al più è un’approssimazione, visto quante volte il segnale viene trattato.

Ora, alcuni altri concetti sono gli fps, gli hz, il chroma subsampling.
gli fps si dividono in quelli di ripresa e quelli della riproduzione. Perchè questo? Perchè gli effetti in slowmotion si fanno oltre che con la cg con riprese ad alti fps: registri a 2400 frame al secondo, rimandi a 24 frame al secondo → ogni secondo registrato dura 100 secondi (se non ho fatto male il calcolo, ma non è questo il punto).
E qua si parla della ripresa.

Come viene fatta? dipende dal regista e dal direttore della fotografia, perchè i parametri di fps e di shutter (quanto è veloce l’abbuiamento tra uno scatto e il successivo) vengono scelti in base all’ effetto che si vuol dare.
Le scene di inseguimenti ad esempio vengono fatte con shutter lenti, in modo da dare blur, le scene drammatiche con shutter veloci, in modo da congelare i movimenti - ovviamente non è scritto nella pietra, sta a quei due dare il mood del take.
Per chi è interessato a questi particolari trovai molto interessanti due libri, Film Editing: Great Cuts Every Filmmaker and Movie Lover Must Know e un’altro che ora non ricordo.

Ora, abbiamo il nostro filmato registrato come voleva il regista. Si passa all’ editing con già in mente il formato finale, che non è solo “1080, 4k, 16:9, 21:9, imax” etc ma anche gli fps di riproduzione.
Ora, in ambito film esiste quasi solo il 24p (progressivo), mentre in ambito video esiste quasi solo il 50i e il 60i con i corrispondenti 25p e 30p. Ora, i 30 per precisione come diceva frattacchia non sono 30 ma 29,97. La differenza tra i(nterlacciati) e p(progressivi) è che nei progressivi il segnale viene mandato intero ogni frame, negli interlacciati viene diviso a metà orizzontalmente e viene mandato prima il campo sopra e poi il campo sotto.
Il perchè sia meglio uno o l’altro è tutto un altro discorso e di nuovo la questione è: dipende dallo scopo (da cosa riproduci).
Poi è arrivato il mondo consumer dove “di più è meglio” e si vede il casino creato da gente che non sa cosa fa. Compreso i video in verticale.
Comunque, i video vengono riprodotti su un dispositivo che ha una frequenza di riproduzione fissa. Nel caso di formati 24p come si fa? Si fa un operazione chiamata 3:2 pulldown, per portare quei 24 frame a 30/60 hz, interpolando quelli mancanti. alcuni vengono doppiati, altri mischiati.

Ah, si parlava del chroma subsampling.
Di nuovo, il sensore non è che è una pellicola, ma un semplice pezzo di silicio, sensibile alla luce, e legge i valori di luminosità.
E non legge i colori, per un sensore ogni immagine è in bianco e nero. PUNTO.
Parentesi: come fa a leggere quindi i colori? Semplice, ci sono due metodi. Il primo (bayer) gli mette davanti un filtro che taglia i colori, in modo che su ogni pixel arrivi solo rosso, verde o blu (guarda un pò, l’ RGB). il secondo (foveon) mette 3 sensori uno sopra l’altro, ognuno sensibile alla singola lunghezza d’onda e che lascia passare le altre. Il foveon è molto bello ma poco utilizzato, praticamente c’è solo il bayer con alcune variazioni sul tema.
Già qua, c’è un’operazione di interpretazione perchè noi ogni pixel lo vediamo con i tre valori di rgb, ma nella realtà ogni pixel ha solo uno dei tre colori, gli altri 2 sono interpolati.
E vabbè.

Fatto questo, questi dati vanno registrati, e siccome sono tanti oltre alle varie operazioni che semplificano il fotogramma registrando solo le variazioni o i vettori dei pixel (cioè, quel pixel si sposta da x,y a x1,y,1) - e sto semplificando veramente tanto - ci sono i dati che dicono che luminosità e crominanza (colore) ha quel pixel. Ebbene, per risparmiare spazio si comprime la crominanza più o meno. Il formato più “raw” è il 4:4:4, quando si arriva alla fine in genere è un 4:2:0, dove già si è perso risoluzione nella rappresentazione del colore.
E qua appunto io personalmente ridevo al “croma del regista”.

Siamo più o meno arrivati all’ output. Da un segnale “raw” 4:4:4, con bitrate di 280mbit o più al secondo ad un segnale riprocessato e messo dentro un contenitore da qualche decina di mbit/s quando va bene.
Ok, ammettiamo che sia molto vicino alla visione del regista (e non ci metto dentro il parere del montatore, della casa di produzione, di quella di distribuzione e ovviamente del direttore della fotografia :asd:)

Ora lo dobbiamo mandare in un tv.
Che ha un pannello diverso da altri tv, anche il solito modello.
pannello che ha una sua vita propria (uso e come è stato fatto)
che è in una stanza con superfici riflettenti e assorbenti
dove ci sono altre fonti di luce (dirette o meno)

Quanti lo hanno calibrato prima della visione?
Perchè senza una calibrazione, fatta ogni tot perchè il pannello cambia resa, non avrai mai una resa neanche vicina a quello che voleva il regista. E non c’entra il sensore di luminosità, è proprio che il rosso non è rosso, il verde non è verde, il blu non è blu, il nero puro non è nero puro e il bianco puro non è bianco puro (non solo in luminosità, neanche in tinta, avrà probabilmente componenti di rosso, blu o verde che sbilanciano il grigio)
Senza contare che proprio per questo, magari quanto viene distribuito per l’ home video passa da una modifica per renderlo fruibile a più persone possibili

8 Likes

:lode: Gran bel post, grazie :approved:

Riguardo l ultima conclusione possiamo dire che Dolby Vision e quei settings, tolte le condizioni di usura, tolte le condizioni della stanza e tutto il resto che è incontrollabile, riesce cmq ad “avvicinarti” di più all’ obiettivo finale anche se posso capire rimane molto lontano?
È un piccolo miglioramento? È irrilevante perché parliamo di 5%? 1%? 0.1%?

Per me è tutto lì, io sono un amante del cinema
E della qualità, i bei film me li vado a vedere in imax in 70mm o all Arcadia di melzo quando sono in Italia, non mi sogno nemmeno per L anticamera del cervello di pensare che Apple TV + Dolby vision vuol dire ricreare quelle condizioni alla perfezione. La mia frase iniziale è stata presa ed estremizzata

Comunque il titolo del thread è azzeccatissimo :asd:

1 Like

Ma è tutto lì cosa lo capisci che anche ammesso ci sia un miglioramento, cosa di cui dubito parliamo di roba totalmente impercettibile.

Se proprio ci tieni comprati un calibratore e calibrati il pannello, dovrebbe essere decisivamente piú influente, spesso i televisori hanno i contrasti e saturazione sparati a palla quindi a fine calibrazione potresti trovarti un immagine piú piatta, ma tecnicamente piú corretta.

1 Like

Per ora il massimo che ho fatto è seguire i suggerimenti di rtings LG C1 OLED Calibration Settings - RTINGS.com

Mtt: Dolby vision e Apple TV ti permettono di vivere l’esperienza esattamente come l’ha pensata il regista

Billy: hai torto, e te lo spiego con un wot spettacolare e super tecnico

Mtt: grazie del bel post. Quindi si può dire che Dolby vision e Apple TV ti avvicinano all’esperienza come l’ha pensata il regista?

:asd:

11 Likes

mi fa piacere vedervi felici e sorridenti di lunedi mattina :smile: :love:

Scusate se cambio argomento, ma mi pare che Billy abbia fatto chiarezza

Volevo chiedere, come mai non vi piacciono gli oled?
Visto che si tratta di un thread apple, mi pare che gli iPhone (dal X o dall’ 11) abbiano oled; anche steam deck e Nintendo switch offrono una versione oled che costa di più della versione standard

non è che non ci piacciono
è che i neri sono assoluti e quindi a volte una scena può sembrare più scura di quanto intended