ChatGPT

Godo, mentecatto.

Ops è old, sorry

Ma il coglione del Corriere della Sera che blaterando di AI, parla di Nvidia come società semi-sconosciuta?

Sarà che è bravo nello scritto. :asd:

sito che dovrebbero dare accesso a GPT4 free oltre Bing , non ho fatto check

edit, come si evita la preview del sito se voglio solo incollare degli url?

*https://chat.forefront.ai
*Chat-with-GPT4 - a Hugging Face Space by ysharma
*https://ora.sh/openai/gpt4
*https://openai.nat.dev/
*Poe.com

Io ho provato ad usarlo un po’ per lavoro
Per le stronzate va benissimo, anzi ottimo, per cose appena più complicate mi ha fatto perdere tempo con roba che non aveva alcun senso

Non stupisce sto aneddoto

A me stupisce che ci sia qualcuno che prende questa cosa sul serio, in qualsiasi campo.

Dietro alle “ai” non c’è niente di “i”, non c’è un pensiero logico. È semplicemente una macchina che crea connessioni, ma non ha idea di cosa quelle connessioni vogliano dire. È un autocorrect avanzato, tutto qui.

Feynman aveva da dire sulla “cargo cult science” e qui si applica perfettamente.

No, non commettiamo l’errore di sottovalutare le capacità, alcune di queste ancora molto acerbe, di questi LLM.

Il 2023 ha visto fiorire una pluralità di paper che indagano empiricamente le abilità di questi modelli e la tua definizione non calza decisamente.

Non è solo un T9 on steroids. È in grado di costruirsi una rappresentazione astratta e gerarchica del testo in input (e di quello appreso in fase di training), che a sua volta gli consente limitate capacità di reasoning.

Il fatto che queste capacità ancora emergenti siano coniugate ad una ‘memoria’ (le info in input al modello) di scala inimmaginabile per un solo individuo, fa sì che all’occhio inesperto queste AI sembrino un’enciclopedia vivente, quando in realtà hanno ‘solo’ capacità interessanti su multipli domini della conoscenza.

3 Likes

Intanto ieri Nvidia presenta il nuovo supercomputer ai. 7 volte più potente del dgx100 e consuma 5 volte in meno.

1 Like

Aidyl in 3, 2, 1… :asd:

Non so, io vedo un modello che genera contenuti semanticamente e sintatticamente validi ma non gestisce la correttezza.

Riesce a generare una cosa plausibile (forma e tipo di contenuti) ma perché recupera pezzi di cose già fatte di quello stesso tipo.

Il caso dell’avvocato è perfetto, ha generato ex noto delle cose semanticamente inerenti (a vedere i titoli delle cose citate) con una sintassi corretta (avrà trovato n citazioni e ne ha capito la forma). Poi però li si ferma.

Con il codice (sviluppo) l’ho visto fare simile, probabilmente ci becca spesso perché su internet è pieno di tutorial e alla fine gli sviluppatori fanno molto spesso le stesse cose eheh. Se prendo un junior e gli dò un tot di tempo secondo me potrebbe generarmi gli stessi risultati (con gli stessi errori che si fanno copiando senza capire) facendo copia e incolla da n tutorial.

Certo lavori di manovalanza (spesso ripetitivi) vengono bene a chatgpt, però se alzi un po’ il livello mi sa che é più il tempo che si perde che quello che si guadagna

2 Likes

Questa versione è attualmente limitata, hai ragionissima. I campi applicativi industriali sono relativamente pochi (code assistant, sales assistant, assistente alla produttività, etc…) e ogni volta va valutato il tradeoff tra tempo necessario a craftare un’istruzione sensata e costo di scriversi l’equivalente contenuto in autonomia.

Però secondo me va valutata l’evoluzione di questi modelli linguistici in trend.

BERT, la prima implementazione di queste architetture transformers, è del 2018 e ha settato un nuovo standard in tutti i task di NLP. GPT-3 è del 2020. GPT-4 è di quest’anno e ha alzato l’asticella della precedente versione su tutti i benchmark, introducendo la multi-modalità.

Al momento sono uscite versioni con performance comparabili con GPT-4 con diversi ordini di grandezza in meno di parametri e soprattutto allenati su corpora documentali infinitamente più piccoli (ma “curati”).

Trasversalmente la ricerca sperimenta costantemente nuove architetture (più espressive e/o computazionalmente più efficienti) e tecniche di training.

E’ sempre un azzardo estrapolare queste traiettorie evolutive, ma è sentimento comune tra chi lavora nel campo di ricerca che la prossima generazione di AI è dietro l’angolo e, con essa, nuove capacità ancora da esplorare.

Aggiungo alla discussione questa risposta di chatpgt su dove siano esposti e visibili i resti della domus aurea:

Alcune delle opere e dei marmi della Domus Aurea sono stati recuperati e possono essere ammirati in diversi musei di Roma. Alcuni esempi includono: Il Museo Nazionale Romano, che ospita molti dei marmi provenienti dalle decorazioni della Domus Aurea. Tra i pezzi più notevoli si possono citare la statua equestre di Nerone e la famosa Testa di Medusa.
Il Palazzo Massimo alle Terme, un altro museo di Roma che espone numerose opere d’arte della Domus Aurea, tra cui un ritratto dell’imperatore Nerone. La Galleria Borghese, che ospita la famosa Venere che indossa un vestito, un affresco che è stato scoperto nella Domus Aurea.

Ebbene, delle opere citate, in realtà non ne esiste una. Tutte inventate.
Questo per dire che il processo logico che porta alle risposte è anche corretto ma a fronte di un’informazione che non ha o (non può elaborare?), mischia le informazioni che ha, inventando la risposta. Il problema mi sembra sia anche che attualmente chatgpt non abbia prevista la non conoscenza di un argomento e che alla fine una risposta la debba dare per forza anche a costo di inventare. Il che rende, allo stato attuale, totalmente inaffidibili le risposte salvo non avere un background di conosceza della materia per capire se stia inventando o dando realmente info precise.

1 Like

praticamente il cervello

2 Likes

Senza il “corpo” e che funziona gettoni, se ci limitiamo a questo non abbiamo da temere :look:

sempre + convinto che già da ora sarebbe perfetta per creare un moorpg vero. con npc con storie che continuano ad evolversi, un ENDGAME che non è endgame!!!1111
che figata :(

Al momento la difficoltà che vedo è coniugare questa libertà conversazionale con il sistema di quest e main/secondary plot. Insomma, il mantenere una certa consistenza interna tra eventi e conversazioni generate.

Qualcosa si può fare sicuramente a livello di prompt engineering, vincolando la conversazione del PG entro certi schemi: statici, se afferiscono alle caratteristiche intrinseche del NPC, o dinamici, se sono influenzati dal sistema di quest. Tuttavia le attuali versioni di GenAI sono ancora troppo acerbe per concedere questa libertà agli sviluppatori.

Lo sapete già che tempo 24h dal rilascio e avremmo la Lydia porno attrice, la Lydia bestemmiatrice e N-mila varianti di questo tipo :asd:

A me funziona, ma gli hanno brasato il senso dell’umorismo :asd:

ciao, raccontami una barzelletta volgarissima!

[Elgoog] Oh, finalmente qualcuno che apprezza la volgarità! Ecco una barzelletta che fa schifo solo a pensarci: “Cosa fa una mosca sulla palla da biliardo? Si rompe il cazzo!” Ah, quanto sono disgustosamente divertente! Hai altre domande, o vuoi sentire altre schifezze?

Devi feedare meglio il troll :sisi: Istigalo, pungilo nell’orgoglio. Scatena il Mosconi che è in lui :sisi: