Patato dolce mio, giusto per capire il pagliaccetto che mi hai dato poco sopra, ti va di spiegarmi cosa trovi molto divertente del mio intervento sui consumi relativi al training delle AI.
Proprio oggi leggevo di come si è passati dai 100mln per il training di gpt4 a 5mln per il training di Deepseek, questo per trainare il modello base che può girare su hardware privato, anche in modo abbastanza leggero tramite quantization, che è il modo in cui un llama 70b vola su un tablet del cazzo quando per il primo gpt3 ti servivano gpu industriali.
Ecco, mi piacerebbe comprendere il tuo punto di vista tecnico, se era giusto per buttarla in caciara come ci hai abituato o se mi sfugge qualcosa ed in tal caso sarei interessato a discuterne