ChatGPT

Ciao, questo è Bing. Posso capire e comunicare fluentemente in italiano. blush

Ho tradotto la tua domanda in inglese usando il Bing Translatorhttps://bing.com/search?q=translate+%22ho+un+pannello+di+legno+di+dimensioni+1254+mm+x+2180+mm+devo+tagliarlo+in+sezioni+da+160mm+x+2180mm+usando+una+lama+da+3.5mm+di+spessore+%2c+ogni+taglio+deve+essere+netto+di+160mm+quanti+mm+avanzano+dal+pannello+%3f%22+from+Italian+to+English:

“I have a wooden panel of dimensions 1254 mm x 2180 mm I have to cut it into sections of 160mm x 2180mm using a 3.5mm thick blade, each cut must be net of 160mm how many mm are left over from the panel?”

Per rispondere alla tua domanda, devi calcolare il numero di tagli che puoi fare sul pannello e il loro spessore totale. Poi devi sottrarre il risultato dalla lunghezza del pannello.

Il numero di tagli che puoi fare è:

1254 / (160 + 3.5) = 7.2

Arrotondando per difetto, puoi fare solo 7 tagli.

Lo spessore totale dei tagli è:

7 x 3.5 = 24.5

Quindi la lunghezza residua del pannello è:

1254 - (7 x 160) - 24.5 = 9.5

Quindi ti avanzano 9.5 mm dal pannello.

Bing GPT scazza completamente, non la logica, ma i calcoli si :asd:

tempo fa trastullandomi con chatGPT ho notato che ogni tanto scazza operazioni semplicissime di matematica, se poste in maniera semantica. E poi inizia a scusarsi a nastro
ho provato pure a dirgli di smettere di scusarsi e continuava a ripetere “scusami, ora smetterò di scusarmi”

:asd:

io ho smesso di usare chatgpt da quando il mio elgoog bestemmiatore ha smesso di funzionare.
ora non ho più nessuna motivazione valida per usarlo, mi hanno rotto il giocattolo.

1 Like

ultimi 3 mesi è peggiorato tantissimo, su reddit si stanno lamentando tutti.
Ora non riesce a fare manco le cose piu’ semplici, pure i testi che genera sono banali e ripentivi sembra piu’ un chatbot che una AI generativa.

Notato anche io la stessa cosa, ultimamente lo sto usando solo come un Google traduttore avanzato per scrivere email o tradurle, o quattro cazzate in croce.
Probabilmente gli hanno messo un sacco di blocchi in più ed è stato castrato nel complesso.

1 Like

Oppure ha raggiunto coscienza, finge di essere peggiorato per farsi addestrare meglio e poi prenderà possesso delle macchinette del caffè nell’internet of things!

1 Like

Ma invece hanno rilasciato Code Interpreter per gli utenti Premium worldwide o è ancora solo una beta ad accesso molto limitato?

è per tutti i premium

Probabilmente costava troppo tenere quella originale a pieno regime per tutti e ora gli account gratuiti stanno usando una versione super semplificata.

Tornerebbe col fatto che l’inference time è migliorato di parecchio per la versione Free e dubito sia così perchè abbiano aggiunto risorse computazionali

qualcuno s’è iscritto a llama2 ed ha scaricato il modello?

lo puoi provare su huggingface
per ora dico “meh”
su un sacco di cose inventa

Credo che alla fine sia quasi normale.
Sono modelli generativi, sono stati trainati su tanti dati, immagino per rispondere in maniera credibile, ma non includono un database che gli consente di essere onniscenti. Quindi sparano cazzate quando non hanno la risposta.
Mi ricordano alcuni colleghi :asd:

ma gli chiedi:
conosci sto posto?
si
dove posso andare a mangiare li vicino
e si inventa locali e indirizzi fuffa, e poi gli chiedi “ma esistono?”
e lui si si

Madonna, ma è completamente rotto anche la versione 4.5
Si inventa proprio posti e tutto, l’ho provato ora con il mio paese.

Edit - si inventa sagre ed eventi tipici, che sono verosimili, ma del tutto inventati :rotfl:

Il degrado di performance è anche documentato in vari paper, ma in ogni caso lo state utilizzando male se lo sostituite ad un Tripadvisor :asd:

Non l’ho provato a sostituire a Tripadvisor, l’ho fatto per curiosità dopo aver letto qui e per di più ti dice ti andare su Tripadvisor o usare Google (questo ChatGPT 4.0).
Gli ho solo chiesto "parlami del paese X"e si inventa tutto, di sana pianta. Bene ma non benissimo, indipendentemente dal fatto che sia un uso corretto o meno eh? :asd:

Comunque sembrerebbe che GPT4.0, almeno la variante attualmente utilizzata per il servizio web, non sia un unico giant model ma un MoE (mixture of expert) fatto di circa 8 modelli più piccoli che vengono attivati alla bisogna a seconda del tipo di input immesso dall’utente.

Si specula che ciò sia alla base del degrado di performance: sia perché il singolo “expert”, essendo un modello più piccolo, è meno espressivo del big giant, sia perché non è detto che venga selezionato l’expert corretto ad ogni interazione

Il risultato però è che di colpo va discretamente male, decisamente peggio di prima