Apple vs World (Part 4)

No no piano, Imagination non e’ stata acquisita da Apple, e’ stata acquisita da Canyon Bridge - fondo di investimento con sede in California ma con copertura finanziaria 100% cinese [previo licenziamento di tutti gli impiegati in USA per evitare che Trump fermasse l’acquisizione], e quando si parlava di acqusizione da parte di Apple, gia’ qualcuno aveva ipotizzato un possibile blocco. PASemi venne effettivamente acquisita da Apple ma stiamo parlando di un team “piccolo”, avranno avuto meno di 200 persone (vedo che wikipedia dice 150). Quindi in realta’, se la vuoi mettere cosi’, Apple e’ proprio la prova che si puo’ fare “tutto” senza comprandoti i competitor/gli altri big… Cosa che e’ vera, davvero non c’entra nulla “mettere tutte quelle teste a lavorare ad una cosa unica”, primo perche’ senza gli introiti di clienti “esterni” non potresti tenere tutte quelle persone (e infatti in altri settori dove succede, post-acquisizione un sacco di gente viene licenziata), secondo perche’, come dicevo, puoi gia’ unire tutte le tue competenze a quelle di ARM pagando per una licenza omni-comprensiva delle generazioni recenti dei loro chip.

1 Like

Secondo te Nvidia non può permettersi di mantenere Arm per progettare nuovi chip?(Premesso che le licenze sui set base di Arm possono continuare tranquillamente a venderle?).

Cioè ma secondo “noi” perchè Nvidia ha messo sul piatto 40 miliardi di dollari per prendersi Arm? Così per curiosità magari sono degli scappati di casa e lo diciamo a Borzo di non investirci…

La volevano acquisire proprio per “continuare a vendere” agli altri, ovvero per diventare un middleman globale in chip IPs, soprattutto sul versante CPU, e potenzialmente avere un certo tipo di visibilita’ e forse pure influenza su tutti gli altri designer e manufacturer. Tutto questo e’ ortogonale rispetto alla loro voglia o capacita’ di sfornare chip loro di ogni tipo, che siano GPU desktop o CPU mobile ecc.

Cioe’ per essere chiari: mi sembra che il punto di partenza tuo fosse che NVIDIA, se non fosse stata bloccata nel comprare ARM, avrebbe in commercio gia’ da un po’ qualcosa al livello di Apple chips in termini di perf/watt, ma questa cosa non e’ vera, gli eventi sono indipendenti.

No.

Ho detto che quando questi colossi vogliono e possono, se lavorano nel modo giusto, riescono in poco tempo (che sono anni non mesi cmq eh!) azzerare le distanze con la concorrenza.

Se Nvidia avesse acquisito Arm ce l’avrebbe fatto nel giro di 5 anni a presentare qualcosa di simile ai Silicon e alla serie A? molto probabilmente si (non si).

Se NVIDIA avesse voluto presentare qualcosa simile ai chip di Apple, e avesse deciso che gli serviva una base che non aveva tipo design ARM, come ho spiegato avrebbe agito in maniera molto diversa (aka licensing di tutto) - e come forse ha pure fatto, non lo sappiamo - dal puntare invece tutto sull’acquisizione. L’acquisizione e’ proprio un altro paio di maniche.

Guarda, io in questi “colossi” ci lavoro da 10 anni, proprio nei gruppi di ricerca o simili riguardo rendering/GPGPU/high perf computing in chiave architectural design. Se ti dovessi dire la cosa piu’ sorprendendo che ho scoperto (e tra l’altro prima dei 10 anni :asd: ) e’ che anche i progetti long-term dentro questi colossi possono fallire abbastanza miseramente a volte, in maniera che nemmeno io se fossi rimasto “fuori” mi sarei immaginato.

Vorrà dire che non hanno lavorato come si deve :dunnasd: … o dobbiamo pensare che magicamente solo a infinite loop si manifestano magicamente progetti di super chip?

Se appunto mi dici che questi colossi seguono il mercato e un progetto di un chip a lungo termine non riescono a portarlo avanti perché distratti da altre cose ci credo (Soprattutto perchè molte sono società software).

per quanto riguarda Nvidia non gli serviva un design Arm (ripeto perché pagare 40 miliardi per avere la stessa roba con molto meno??) a Nvidia serviva qualcuno che sapesse come progettare un chip performante a basso consumo e al mondo tolta Apple c’è un solo team oggi che lo sa fare ed è Arm.

Scrivo l’ultimo messaggio in quanto mi sembra si sia abbastanza off-topic, se la cosa interessa a qualcuno al massimo si puo’ aprire un altro topic.

Fino a poco tempo fa, ovvero il post dell’ultima IPO di ARM che e’ andata meglio del previsto, NVIDIA assumeva a rullo gente da ARM perche’ la seconda non pagava a volte neppure la meta’ della prima… Le teste sicuro non gli mancavano. Le idee architetturali o i anche i design uArch da cui partire, come ho spiegato, neppure.
Se i design vanilla ARM fossero cosi’ tanto “la soluzione”, come mai neppure Microsoft+Qualcomm sono riusciti a shippare qualcosa di molto competitivo es. rispetto ad Apple? Dopotutto gli sarebbe dovuto bastare comprare i design completi di ARM e al massimo applicare due tocchi, no? (ricordo: ARM non builda chip per se, quindi ti vende sempre, se gli chiedi un design uArch, il meglio che ha, non e’ che vende la roba scarsa agli altri per tenersi quelli buoni per se…).

La situazione mi sembra chiara, almeno lato GPU: Apple e’ partita dal low-powered e sta scalando in alto con discreto successo (ma comunque non hanno ancora un equivalente di 4090, per la 4080 magari uscira’ un M4 Ultra, o boh). Gli altri stanno provando a scalare in basso, AMD sta avendo risultati decenti, NVIDIA vedremo. Faccio solo notare che aumentare max perf di un chip alla fine ha una roadmap semplice: aumenti processing units, aumenti bandwidth delle connessioni cosi’ che non appaiano nuovi bottleneck, migliori BW e latency di cache e memorie e via. Ingegneristicamente non e’ poi facile, ma aumentare efficienza invece non ha neppure una roadmap cosi’ chiara.

Lato CPU e’ piu’ complesso, Intel con x64 e’ indietrissimo, ma AMD con strix point, sempre su x64, mostra una ottima efficienza. Ugualmente, Qualcomm ha provato a scalare qualcosa ARM-based e non gli e’ riuscito super bene, segno che non e’ solo una questione di instruction set aka x64 vs ARM…

Poi in tutto questo, la unit di chip design di Apple ha tantissimi ex NVIDIA a tutti i livelli, e ovviamente anche ex-altro (ad esempio da anni ci sono gran parte delle persone che hanno lavorato a Larrabee di Intel, prima che lo cancellassero), e negli ultimi anni anche NVIDIA ha assunto sempre di piu’ da Apple… Quindi si parla in entrambi i casi di altissimo livello [… che comunque non assicura 0 fails eh :asd: ].

Alla fine la spiegazione più semplice è che come hai detto Apple è partita da design per i telefoni e iPad che erano improntati sull’efficienza e hanno scalato verso alto.

È ovvio che 10 anni di chip di iPhone e di efficienza hanno la loro importanza e si vede dall’ottima batteria che hanno i vari Mac, ovviamente ora scalano in alto con le performance e tirano fuori ottimi prodotti.

Peccato per il software. :asd:

Ma va a cagare dai

Fattuale. :sisi:

Secodno me non hai le idee molto chiare su chi sia l’utente Apple

Cosa aspetti a mandarcelo io proprio non capisco :dunnasdsad:

Ma sulle ortiche. Mentre piove.

1 Like

Cosa intendi?

Comunque l’utente Apple medio ho l’impressione che stia cambiando molto rapidamente

In che senso?

L’utente Apple sono anche decine di milioni di adolescenti impressionabili che comprano il device a rate per conformarsi :asd:

Voler profilare l’utente di una roba che è anche e soprattutto un brand fashion non ha molto senso :asd:

Che carini che nel 2024 fate ancora “l’utente apple è xyz” quando praticamente una visita web su due è fatta da un dispositivo Apple, avete degli strumenti di profilazione molto avanzati :rotfl:

:rotflfast:

Boh non so, la figlia minorenne dell’utente che non ricordo voleva a tutti costi un iPhone o un Huawei? :asd:

3 Likes

iPhone è uno status symbol e sicuramente una gran quantità di utenti Apple conosce poco tutte le feature del device, ma sicuramente gli utenti Mac e iPad invece sono utenti più skillati. Una volta erano solo professionisti oggi è un gran pot-pourri di utenti che è difficile profilarli in modo uniforme ma devi per forza fare dei distiunguo.