Apple vs World (Part 4)

gli manderanno gli 8 giga mancanti con un biglietto dove sul davanti c’è scritto “E’ sempre bello far felici i nostri clienti, riesci a saldartela da solo?”

e dietro

Sono deluso :no:

Magari te l’hanno fatta gli altri, chiedi :sisi:

Ma MC che fine ha fatto?

poi non dire che non ti do dritte che ti faranno diventare miliardario: un’app che da vision ti apre la cam dell’iphone così ti puoi fare i selfi con il vision guardandoti dall’esterno.

Ma l’ha fatta la foto.

Solo che guardandola si è reso conto di sembrare un coglione con quel trabiccolo in aereo e non ha avuto il coraggio di postarla.

Bello il mac mini, purtroppo non potrò usarlo senza stand verticale color camo della Mad Catz perché altrimenti non posso accenderlo

1 Like

1 Like

Monitor 110ppi per non retina e 220ppi per retina. Tenendo a mente questo puoi scegliere la miglior combinazione risoluzione nativa vs pollici.

Questo per il discorso di avere la “giusta” dimensione delle cose a video

Comunque stavo guardando i geekbench degli m4, il base straccia già l’m2 pro dell’anno scorso.

Stanno andando davvero brutali con ste cpu, brava Apple

2 Likes

31 posts were merged into an existing topic: Bidone dei rifiuti organici di mela

Comunque sto ancora cercando un’alternativa, in stile Affinity, a Acrobat Pro per OSX.

Io Affinity ci ho anche provato a usarlo, ma :asdsad:

In ogni caso, che ci fai di solito con Acrobat?

ma niente di particolare: documenti misti testo immagini, ogni tanto mi capita di aprirne qualcuno prodotto da Acrobat pro.

Grazie del suggerimento, TeamViewer devo ancora provare ma per ora ho provato parsec che sembra risolvere il mio problema quasi perfettamente

I due computer (Mac host e Windows client) sono nello stesso network di casa, e sembra che dal Mac posso limitare la connessione fino a 60 mb. Sto pensando di provare connettendo entrambi i laptop tramite lan (cavo) e vedere come va. Con entrambi i laptop in wifi ho latenza minima e niente lag. Questo con uso leggero (browser) ma anche con YouTube 720p regge bene

Ci sono due cose che devo risolvere
1 la risoluzione dei due schermi è diversa, perciò dal client ho due barre nere ai lati dello schermo, il che rendono lo schermo un po’ piccolo
2 le gesture da touchpad non vanno proprio

@ Devil, ho ricercato sunshine ma sembra che non sia disponibile per Mac (moonlight pare sia oramai in disuso)

Pero’, andrebbe detto che nessuno ha un equivalente di una 4090 desktop… Pure AMD ci ha rinunciato/fallito. La 4090 ha venduto bene in relazione alle altre GPU desktop, ma i numeri in assoluto non sono grossi, non e’ chiaro se siano in crescita, e sono utenti che - giustamente - comprano quel prodotto per stare a posto anche per 10 anni… In compenso, i “gaming notebooks” aka notebooks con high perf anche GPU side sono un segmento in costante crescita, che e’ probabilmente il motivo per cui li’ tutti i vendor sfornano robe, Apple inclusa. Puoi cercare su google e ci sono vari market report facili da trovare.

Beh no, il segmento mobile/sub-mobile ha volumi giganti e di conseguenza i profitti ci sarebbero. NVIDIA non e’ riuscita a competere, MA, in realta’ ha comunque tirato la zampata pazzesca portando a casa Switch (come fatto notare anche qui) che ha venduto parecchio.

C’e’ molto fumo su quanto veramente fanno in-house, che e’ molto poco (lavoro da molti anni nel segmento silicon/gpu design). Talmente poco che da un punto di vista tecnico personalmente neppure li considererei “silicon designer” [tolta TPU]

Se parli di telefoni o simili, sono una ottima alternativa - fino a che fai le cose che si facevano, diciamo, 2 anni fa. Non hanno capacita’ avanzate ne nel versante ML ne rendering, significa che di sicuro non ci apri assassin’s creed o un LLM serio. Certo, la domanda e’ quante persone vogliono fare queste 2 cose con un telefono oggi e tra 4 anni.
Se parli di notebook ecc, mi sembra che abbiano fallito no? Hanno rilasciato quest’estate una roba poco competitiva con M3 dell’anno scorso…

Tutto puo’ succedere, ma M1 e’ uscito 4 anni fa, Intel i 5 anni per riprendersi il timone della barca quasi ce li ha avuti… Uguale Qualcomm su GPU.

Apple mi sembra abbastanza chiaramente avanti sul primo, visto che ha svelato una infrastruttura cloud totalmente basata su macchine fatte in-house (private cloud su M2 ultra) e ha annunciato simil-zero spesa per comprare altri (aka NVIDIA) ai quarterly results, diversamente da tipo Meta che ha spiegato che deve bruciare il cash vero.
Il SW non si improvvisa? Certo, ma ti posso assicurare che un buon design HW si improvvisa pure meno :asd: Anzi, se ci focalizziamo su generative models, ormai i “segreti” non esistono, esistono solo dataset, utenti e tanti buoni computer da mettere in moto. La prima cosa si puo’ comprare, le altre Apple ce le avrebbe… Poi certo si puo’ fallire lo stesso.

3 Likes

Si grazie al cielo @WMute è OP di questo thread e non posta mai abbastanza

1 Like

ma il mio esempio era al contrario, che Apple in poco tempo ha chiuso il gap con i 2 colossi.

Se a Nvidia avessero fatto comprare Arm secondo te quanto ci avrebbero messo a tirare fuori qualcosa di pari o superiore ai Silicon o agli A di Apple?

intanto Apple si è comprata Pixelmator :look:

2 posts were merged into an existing topic: Bidone dei rifiuti organici di mela

Se ho capito bene la domanda, e’ mal posta.
ARM e’ un chip designer fabless, ovvero non possiede o controlla fabbriche che possono produrre i die finali o fare packaging dentro prodotti, e come tutti questi chip designer punta allo sviluppo di “silicon IPs” con cui “assiste” i suoi clienti che sono poi quelli che decidono di mandare a TSMC, Global Foundries etc. Significa che la gente che lavora ad ARM progetta uno instruction set (per CPU) specifico (che diventa standard, ma non e’ “open”), o degli altri documenti che descrivono idee per far funzionare CPU, GPU e altro in maniera efficiente (ad esempio, idee legate a GPU che fanno rendering tile-based, che e’/era uno dei loro tratti piu’ distintivi) che magari includono diagrammi architetturali, oppure una serie infinita di SW o di supporto o driver/librerie per i vari OS che vogliono usare i chip, e anche producono dei “reference design” microarchitetturali, ovvero parecchio codice in VHDL/verilog che descrive l’HW nello specifico e che tramite un paio di software specifici (ormai solo di Cadence o Synopsis, per parlare di monopoli…) vengono trasformati in un “physical design”, cioe’ tipo un floorplan di transistor, che si puo’ mandare TSMC chiedendo che te li produca. Tutte queste cose sono collegate a “generazioni” specifiche di HW, e ovviamente protette da brevetti e altro.
I clienti chiamano ARM e possono, pagando cifre diverse, accedere alle varie cose: tu puoi chiedere anche solo di avere accesso a tutti i documenti architetturali e avere il permesso di implementarli in uArch come vuoi, oppure puoi chiedere di visionare certe metriche del reference design e se ti piace mandare quello in produzione per il tuo SoC, oppure puoi chiedere di avere il sorgente dei design a cui farai cambi tu (che ARM non puo’ vedere), insomma puoi fare praticamente tutto. NVIDIA chiaramente ha gia’ varie licenze ARM per le CPU di Hopper, pero’ non sappiamo se sono design reference o se abbiano fatto dei cambi loro (alcuni lo dicono o altri no, per dire gli snapdragon che vanno sui quest hanno alcune modifiche e sono documentate, Apple quando usava PowerVR e’ assodato cambiasse molte cose ma non lo sbandierava).

Tutto questo per dire che NVIDIA, pagando pure molto meno di una acquisizione :asd: , puo’ progettare tutti i chip a low/mid power consumption ARM-based che vuole. Se non lo ha fatto (ancora) e’ o perche’ ha preferito fare altro, o perche’ magari ci ha provato ma non ci sono (ancora) riusciti con i risultati che volevano. Le acquisizioni non c’entrano.

1 Like

Si ma una cosa è comprare licenze e design che Arm pensa generiche e che ti può personalizzare (ma sempre da la parte), una cosa è prendere l’intera Arm e mettere tutte quelle teste a lavorare per una sola cosa unendole alle tue competenze.

Così come ha fatto Apple con P.A semi e Imagination. Acquisiste per lavorare ad un unico obbiettivo.