Nuova feature che sembra esclusiva pixel 8 (tensor g3 e cose varie) e poi me lo fai lato server (mentre le altre cose le fai on device)? I casi sono due:
non sono pronti in device ma l’hanno voluto rilasciare lo stesso e da qui il truck
Ma no ce ne sono di società che non mettono il naso nei tuoi dati mica solo Apple adesso non esageriamo. Premesso che non utilizzo prodotti Meta e di Google utilizzo solo Gmail(ma qui ancora di alternative valide non ce ne stanno per le mie necessità) per il resto il tutto è diviso tra Apple e Microsoft (e altri servizi minori).
Premesso che non so nulla ma avanzo una terza ipotesi: Pixel8 riesce a processare piu’ informazioni (sensori piu grandi? SoC piu potente? nuovo formato di registrazione?) e mandarle poi al server che fa tutto il resto mentre i vecchi device non possono farlo.
Per dire non so se lato Android esiste qualcosa di analogo al formato ProRes e magari i terminali vecchi non hanno questa possibilita’ avendo il processore di topogigio.
In an interview with Android Authority , Google explained that part of the initial processing for Video Boost is done by the Tensor G3 chip on the Pixel 8 Pro. The video is then offloaded to the cloud to handle the rest of the processing heavy lifting…
Quindi sembra che:
serva il G3 perché vabbè metti che faccia cose magiche
la feature sembra pensata per usare i server
è limitata al 8 Pro perché costa e quindi per ora l’hanno data solo a chi spende di più
Ho visto il video di presentazione, madonna che giargianata terribile e che paragone disonesto
L’iPhone 15 Pro può girare in ProRes RAW sui profili colori hdr, sdr e log già da due o tre generazioni, e come minimo gira in HDR. Al contrario del Pixel che, beh, fa solo quest’ultimo passando pure da un server esterno
Poco ma sicuro se con un iPhone fai un video come hanno mostrato, tiri tranquillamente giù le zone sottoesposte come ti pare in qualsiasi app di videoediting specialmente se hai il raw dal sensore.
Che poi sarò sincero…ste cose “gni gni guarda puoi girare qui e la e su e giu” e ci mettono il video amatoriale…hanno un po’ rotto il cazzo.
Git gud e regolati la sovra/sotto esposizione noob, su qualsiasi smartphone che gira in RAW è tranquillamente possibile produrre contenuti di qualità broadcast, l’unico motivo per cui non si fa è che tanto su un set il costo di nolo di una macchina seria è irrisorio rispetto a tutto il resto e tanto vale avere il meglio, poi c’è sempre un tema di affetto che il DP ha per certi aggeggi.
Ma se sei un filmmaker che deve fare un documentario o un video musicale o qualcosa in budget, fai TRANQUILLAMENTE tutto su un iphone.
Vengo da tempi dove le camere più fighe accessibili a comuni mortali erano SD con 3 ccd su registrazione DV, per trovarne una ti costava 10k e per averne una in prestito dall’università dovevi fare bocchini ai direttori…in uni da me c’erano le Sony PD-150 in un armadio blindato, che ai tempi erano tipo il dio del digitale, se ne volevi una dovevi compilare 15 pagine di carte e prenotare mesi in anticipo…una roba che faceva video così:
E no, non è compresso male Youtube, e si, questo è un film con budget 8 milioni di dollari del 2002.
O una è la società che ha inventato il ProRES RAW, il codec standard di mercato per la registrazione video di alta qualità usato su ogni produzione video al mondo, e l’altra una società di pubblicitari che nemmeno a dirlo, si ciuccia i tuoi video per “renderli più belli trust me bro” e nel mentre ti profila anche i contenuti del frigo
A chi mi rivolgo se voglio dei bei video su uno smartphone, hmmm, domanda complessa.
Effettivamente qualcuno dovrebbe postulare la legge del salcazzo che dice che all’aumentare della banda disponibile nelle connessioni migliora l’effecienza dei codec di compressione