Apple vs World: Occhio della madre edition (Tv & Infotainment)

Mha mia esperienza col dolby vision su hardware sony ed apple positiva onestamente.
Premesso che ho preferito miniled a oled - preferisco illuminazione massima a contrasto - ma fa tutto tv e lettore in base al contenuto che riceve.
Anche se non sai niente vedi i media abbastanza bene.
Io so solo che se mi procuro i filmino in hdr dolby li vedrò bene, tanto mi basta.

Vedo che su mac ed iphone uguale, hdr è implementato molto bene e non ho mai dovuto settare niente, anche in modalità mista si vede tutto. Mi sa che su Win è più una rottura di cazzo, leggevo che bisogna impostare hdr system wide, ma non avendo un monitor per il pc hdr non ho mai provato, magari nel mentre l’han semplificata.

Oled é il male assoluto se ci lavori con le immagini o se te le vuoi godere. zero controllo sui neri, sempre crashati.

1 Like

THIS cazzo. A me piace che il nero non sia un pixel spento, anche perché non lo spengono mai a 0 ma già a 10 lo tagliano, e poi si frigna che “Buhuhu The Batman non si vede niente buhu”

A chiunque lavori nel settore. Mica solo te. Infatti non li usa nessuno. Non é un caso che mtt tra le sparate millantava la superiorità oled, é un cieco funzionale quando si parla di immagini. :asd:

Billy rispondi che poi devo lockare il topic e pulire splittare sto bordello

:rotfl: se non butti un attacchino ad ogni post non sei contento eh

Ho televisore oled, televisore mini led, schermi dei mbp mini led.
A me personalmente piace oled se a te piace mini led o il cazzo o la vagina saran fatti tuoi non mi pare di essere qui a cercare di convincerti del contrario

Che poi son due giorni che parliamo di chroma fps e AI up scaling ora mi dici che son qui a millantare la superiorità oled che cazzo di sogni vi fate quando leggete i miei post, zero comprensione del testo 100% accecati da non so quale rabbia da forum

Se ho compreso bene, ma qua servirebbe qualcuno che fa cc di lavoro, il Dolby vision limita il clipping non di per sé sulla singola immagine, ma sull’interezza del film.

In pratica, mantenendo il 16-235 su tutto il film, la singola scena ha neri o alte luci spostate in basso o alto e dice al riproduttore di alzare o abbassare la gamma per mantenere la stessa risoluzione in modo da non clippare neri o bianchi
Se nella stessa scena la gamma è comunque estesa su tutta la gamma dubito possa fare qualcosa, mentre se hai solo alte o basse qualcosa farà

1 Like

mtt però, non sei qua ne per discutere ne per fare light-hearted banter, sei a ribadire tot posizioni all’infinito senza informarti di niente che non sia Apple per poi offenderti se il billy/frattacchia della situazione (che fanno video per lavoro e sono esperti ndr) ti dicono che sei fuori strada.

E mo un centinaio di reply di questo bellissimo leggere di qualità da splittare.

Per favore, come dicevo nel primo reply:

Anche perché il bello è che ci sono professionalità diverse e c’è sempre da imparare

Giusto una precisazione, non lo faccio di lavoro, io, infatti sono fermo a quando girare con le DSLR era da pionieri praticamente :asd:

Ne sai più della media e sei sempre intervenuto con un buon insight tecnico sul tema

1 Like

oh acidulo, ho fatto una domanda visto che io ne so poco.

da ignorante penso che una cosa è il canale (4k 50hz), un’altra cosa il flusso video che su quel canale passa (4k 24fps). Potrei ovviamente sbagliarmi, dato che come detto ne so poco e un cazzo

scusate, io ancora non ho capito qual’era la posizione iniziale di mtt.

che solo apple tv manda un flusso video a 25fps? o a 50? o…il contrario?

Scusami, dopo svariati “non sai di cosa parli” non capivo se trollavi :smiley:

Il senso di mettere nella stessa frase hz e fps è che alla fine fanno parte della stessa equazione. Hz è la frequenza di refresh del dispositivo (tv o monitor che sia), se ha 60hz vuol dire che può “cambiare immagine” 60 volte al secondo.
Fps deriva da chi gli manda il segnale, che sia il computer o un decoder esterno o una Apple TV.

Se tu ti colleghi come ho già spiegato con un cavo hdmi il dispositivo/computer fa un handshake con la tv/schermo e gli dice “ti mando un flusso a 60fps” a quel punto gliene deve mandare 60.

Se un video è fatto a 25fps, senza quel setting attivo, vuol dire che i rimanenti fps di differenza vengono generati, e in alcuni casi entrano in gioco algoritmi per farlo. Quel setting invece cambia il contratto tra device e tv dicendogli “da adesso ti mando 25fps”.
Ho già detto sopra che tranne in televisori di ultima generazione questa operazione la noti perché si annera lo schermo per un paio di secondi, prova e vedrai.

Nessuna di queste , ma perché chiedi agli altri invece di leggerti i miei post? Se c’è qualcosa di non chiaro in quello che ho scritto chiedimi e ti chiarisco cosa intendo

La cosa spettacolare degli oled sono i tempi di risposta per videogiocare. :asd:

scusa ma se il canale è 50hz, e il flusso a 25 fps, perché dici che gli fps mancanti vengono generati?
non è semplicemente che resta lo stesso frame per 2 refresh del dispositivo, senza necessità di generare nulla? lo schermo farà vedere 2 volte lo stesso frame, senza doversi inventare niente.

1 Like

ma infatti è così, mica stiamo parlando di videogiochi. :thinking:

era uno scusate generale.

siccome stai a fare mischioni tra fps, refresh rate del televisore, 50hz della corrente (immagino? non mi pare esista niente con refresh rate a 50hz), non ho capito una fava.

la funzione è che l’apple tv sfrutta una specie di VRR (variable refresh rate) per far andare la tv a 25fps come il flusso video? ma c’è un guadagno in qualcosa? mica è un videogioco dove puoi vedere sbalzi tearing e altri artefatti al variare degli fps, se son 25 son 25, mica interpola niente, semplicemente lascia un frame più di 1/25s sullo schermo.

oppure continuo a non capire sta storia dei video e degli fps.

È una possibile casistica ma non è sempre così, non mi viene in mente come si chiama sta tecnologia ma ho visto in passato televisori usare algoritmi per rendere più smooth e quindi i frame non sono semplicemente moltiplicati per due ma possono aggiungere blur o altri effetti.

Rimane poi il problema del fatto che i film sono girati a 24fps, che moltiplicato per 2 fa 48 non 50 quindi televisori a 50hz fisso non possono moltiplicare per due

ma non esistono per quello che ne so televisori con 50hz di refresh rate o_o