Apple & The World (Part 2)

Però allora rimane il constraint di una roba attaccata ad un cavo, e l’uso diventa molto più limitato

D’accordo ma anche qui, non penso che ti guardi un film di 3 ore passeggiando per casa, sei normalmente seduto su un divano.

Beh no, ci sono dei limiti alla miniaturizzazione che siamo abbastanza vicini al raggiungere.
Il vostro errore è pensare secondo me che la traiettoria dei prossimi boh 20 anni in termini di microelettronica possa essere anche solo paragonabile agli ultimi 20.

O arriva un qualche nuovo paradigma sul come fare un pezzo di elettronica, o si raggiungono delle limitazioni abbastanza forti molto presto. E i breakthrough non sono mai garantiti, ci sono interi settori tecnologici che possono stagnare anche a lungo.

1 Like

Boh pensate agli aerei, poi Barlume si triggera ma sono 40 anni che a meno di piccole cose li facciamo uguali, e non perché non ci fossero incentivi per farli migliori, ma semplicemente siamo ad una tecnologia matura su cui si possono fare migliorie relativamente secondarie senza grandi rivoluzioni.

In questo caso secondo te cosa non si può più ridurre ? Chiedo per curiosità non conosco nei dettagli queste cose

Premesso che anche io sono solo marginalmente competente su questi temi, ci sono vari fattori limitanti.

Per esempio ora siamo a chip a tre nanometri, molto più in giù non si potrà scendere, a meno di inventare una tecnologia completamente diversa su come stendere un silicio. Conta che con un fattore 5-10 in meno iniziano ad esserci effetti quantistici che disturbano la formazione del reticolo che non sono superabili. E un fattore 10 sembra tanto, ma negli ultimi 20 anni siamo scesi di più di così.

La soluzione probabilmente sarà ripensare completamente come è fatto il processing di un’unità.

2 Likes

i transistor sono praticamente al limite fisico già ora.

meno in generale, han visto che alcune parti delle cpu, mentre prima allo scendere di processo produttivo guadagnavano linearmente, ora han già iniziato a stagnare (es: sia intel che amd stampano a chiplet ed a diversi processi parti diverse della cpu perché stampare a 5nm la parte di i/o porta a guadagni ridicoli rispetto l’aumento di costo)

anche la ram se non ricordo male inizia a soffrire di questi guadagni minori derivanti dal processo produttivo.

tl;dr si stan raggiungendo i limiti fisici del silicio e non è detto che ci si riesca a spostare su altro.

a questo ci stiamo già assistendo, vedi l’approccio chiplet di tutti i produttori ormai, quello ibrido di intel, la 3d cache di amd.

Poi oh la tecnologia sorprende sempre. Ma questo può voler anche dire che tra 10 anni i visori non se li caga nessuno perché è uscita una roba molto più figa :asd:

Makes sense, guardando con uno sguardo ottimista penso che troveremo soluzioni passando per altre strade come dici anche tu.

Se guardiamo gli ultimi 30 anni mi vengono in mente 2 eventi di nota:

  • quando AMD uscì con la linea athlon dimostrando a Intel che poteva spingere di più nonostante avesse meno ghz di frequenza di clock quando Intel stava puntando tutto a fare processori sempre con frequenze più alte
  • quando Apple annuncia il loro silicon che performa uguale e consuma 1/3 della concorrenza

Non ne so nulla ed era un tema su cui la pensavo come te, poi vedendo ultimi 2-3 anni un pochino mi sono ricreduto.
Spero possa procedere con questo passo ancora per un po’ prima di fermarsi nuovamente come il periodo 2010-2020.
Samsung parla di chip 1.4 nm già nel 2027, boh

Ti daranno del fanboy (ed hanno ragione 99%) ma questa effettivamente è stata scandalosa.
È bastato quello per vedere amd ed intel uscire dalla loro inerzia e sviluppare prodotti molto più performanti. Hanno passato dieci anni a far finta che si fosse arrivati al limite, sono dei criminali.

Sicuramente riusciranno a scendere sotto il nanometro, ma con guadagni sempre più marginali.

Ma come dicevo il problema è anche un altro, a quelle dimensioni qualsiasi perturbazione di stato ti rovina il reticolo, il che in soldoni significa che la quantità che devi produrre per averne uno buono diventa esponenzialmente più grande, finché ad un certo punto, immagino, non è più economicamente conveniente

2 Likes

non so come finirà con i visori comunque non vorrei spegnere gli entusiasmi ma vorrei ricordare che circa “qualche annetto fa” l’industria del cinema e i big delle tv pomparono il 3d al grido “ tra 10 anni tutti vedremo i film in 3d “ ecco se mi ricordate come è finita :dunnasd:

1 Like

intel forse, amd era “appena” uscita con ryzen.

Performance/watt erano comunque scarsini, nonostante l’architettura fosse azzeccata

Silicon è l’unica cosa decente fatta da Apple in questi anni. Per una volta che @mtt ha ragione diamogliene atto :asd:

Non sono L industria giusta per pompare qualcosa, e infatti è finito tutto nel dimenticatoio.

Che poi “pompare” suona sbagliato, diciamo introdurre e coltivare una nuova tecnologia, che deve essere valida in primis.

Onestamente poca gente si è bevuta la storia del 3d, aveva senso per contenuto effettivamente 3d, come avatar, ma han pensato di applicare qualche layer e sparare fuori film in 3d registrati in 2d quindi il risultato era una mezza schifezza.

Qui con vision pro la storia è diversa, han già annunciato che si riuscirà a registrare spatial video

Io non voglio dar contro a nessuno pero’ @mtt chiudersi a riccio su questi occhialoni vr di Apple senza aver provato altro fa un po’ ridere.

Fa piacere che l’immaginazione possa andare oltre alla realta’ ma in questo caso ci sono dei limiti che Apple, a quanto pare, non abbia superato(anzi in alcuni casi abbia fatto anche peggio) e che faccia leva solo sui fanboy :dunno:

Il problema principale del 3d e’ che pochissime produzioni possono permettrsi il 3d stereo vero, come avatar.
Io per esempio in 10 anni di film, solo su lego the movie ho visto il 3d stereo vero, ovvero 2 camere, 2 render L & R, invece che qualche stereo conversion e la differenza e’ agghiacciante, come i costi, duplicati praticamente :asd

E’ vero che coi processi produttivi si e’ accelerati parecchio e si dovrebbe raggiungere a breve l’orizzonte di quanto considerato, ad oggi, realistico per la produzione di massa. Per come la vedo io:

  • 1nm e’ “ragionevolmente” all’orizzonte, non solo tramite TSMC. Da 3nm a 1nm si puo’ avere un +50% di perf a equal power per step, dicono, significa in teoria che a 1nm si avra’ piu’ del doppio di perf di 3nm
  • Lo yield (ovvero il numero di quanti te ne escono “giusti” durante la produzione, come dicevi tu) e’ gia’ parecchio basso da un po’, fondamentalmente da quando si e’ andati sotto 7nm… Che e’ il motivo per cui i prezzi di GPU e altro si sono alzati notevolmente “gen to gen”. Si fara’ quello che si e’ sempre fatto, ma non credo che l’incremento di prezzi sara’ “bloccante” per il mass market, in maniera simile a quanto non lo e’ stato per i 5/4 nm
  • La parte piu’ importante: anche oggi, gran parte dei benefici in termini di computing sono ARCHITETTURALI e non legati a micro-arch o processi produttivi. Sotto questo punto di vista alcuni (Intel sulle CPU?) mi sembrano avere finito di piu’ “le idee” rispetto ad altri. Certo, qualche GPU/SoC architect dovra’ spremere le meningi di piu’ :asd: ma ci sono ancora molte opportunita’ se ci si fa furbi, per dire la VR standalone di Oculus ha ricevuto negli ultimi anni un boost determinante a seguito dall’idea di FoV-eated Rendering (Carmack e Abrash) che e’ una aggiunta puramente “architetturale”, non dipende da come progetti le caches o piazzi i transistors
1 Like