ChatGPT

Quale versione per creare grafica e musica? Grazie. La “base” ci chiacchieri, ok, ma ottieni solo stronzate inutili.

ma premium o free? Con premium lo sto usando ormai da quando è uscito e non ho mai notato un calo di qualità.

quanto costa abbonarsi al premium?

Dafaq?
Son così stronzo da pagare ed usare la versione free?
Dove si vede?

sui 20€ al mese

scusa scusa, non avevo capito che pagassi il premium :asd:

Crossposto dal thread LSC.

più che strettamente bolla speculativa, a parer mio è stato ignorato deliberatamente l’aspetto di sostenibilità della tecnologia nell’immaginare un business plan

ignorato talmente tanto che il mercato riesce a far costare troppo l’operare questo tipo di strumento

e lo dico perché guardando i checkpoint model per stable diffusion a casa, il quantitativo di energia necessario per prepararne uno ha una traccia ambientale monstre

No, questa non è una bolla speculativa.

E’ solo uno step intermedio nella ricerca in ambito NLP e le big company (Google in testa Google "We Have No Moat, And Neither Does OpenAI" ) sono coscienti del fatto che la sostenibilità finanziaria (e la capacità di iterare velocemente e innovare) passa tramite la capacità di pubblicare modelli più piccoli e più specializzati, anziché one big model.

eh ok ma ci sarà stato avviso di questa situazione al momento del decidere quanto e come scalare verso l’alto, nonostante quel che venga scritto lo scenario del “no moat” mi sembra difficile che non se lo aspettasse nessuno, perché i costi operativi sono molto facili da prevedere

Beh, siamo pieni di big tech che sono diventate profittevoli dopo anni, sfruttando una capitalizzazione esagerata rispetto al reale valore di mercato e la sostenibilità finanziaria di breve-medio termine, diventando così pressoché monopolisti su quel mercato.

Amazon, Netflix, Facebook, etc…

OpenAI avrà tentato la stessa strategia.

Una prima iterazione che gira su hw ancora non maturo si sta rivelando acerbo?
Qualcuno avvisi la lega anti LSC presto!

Che poi non dovresti esser contenta se diverse evil corp implodono nella corsa?

il sistema di riconoscimento immagini molto carino, escono use cases interessanti (anche non legalissime)

Ma perché definita bolla speculativa o paragonata a NTF\Bitcoin?
Cioè a me sembra non c’azzecchi ne l’una, ne l’altra cosa.

2 Likes

Il problema è fare interagire bene i modelli piccoli?

Eh, al momento si specula essere proprio questo alla base del degrado di performance di GPT-4 (versione web) documentato anche in letteratura: si specula cioè che OpenAI per contenere i costi sia passato dal big giant model a un mixture of experts (N modelli più piccoli e specializzati) che tuttavia non funziona sempre benissimo (si ipotizza nel sistema che “assegna” il task all’expert, sulla base dell’input dell’utente)

Di quale modello parli? :look:

Comunque al di là della versione web (che io personalmente ho smesso di usare per produttività personale ormai da qualche mese), a livello corporate stiamo utilizzando gpt3.5-turbo per una serie di use case e il feedback è decisamente positivo.

  • Summarization di testi
  • Generazione di testi (analisi o commenti) a partire da dati strutturati e non
  • Information extraction con capacità di citazione della fonte / porzione di testo da cui le informazioni sono estratte
  • Bot conversazionali
  • Motori di ricerca semantica
  • Clusterizzazione di testi per similarità semantica (che si poteva fare anche prima con dei sentence embedder su HuggingFace, ma con GPT3.5-turbo funziona molto molto bene)
  • Embedding di testi (rappresentazione vettoriale di testi) per finalità di pre-processing in pipeline di machine learning tradizionale
  • Tipici task di NLP (topic modelling, NER, classificazione, etc…) con un unico modello multilingua, anziché una pletora di modelli open su Huggingface (per altro spesso poco performanti in lingua italiana)

Sostanzialmente un mix di nuove capability (principalmente legate alla generazione di testo) e semplificazione di capability già esistenti ma fino ad ora delegate a N modelli specializzati, senza il costo di hosting e di specializzazione.

Tanta roba :sisi:

.edit. aggiungo che stiamo sperimentando gli agent, che dovrebbero delegare un LLM a “decidere” - dato il task - che tipo di tool/function utilizzare. Potenzialmente interessante per far dialogare dei sistemi senza doverne programmare l’interazione (e le condizioni di esecuzione) a priori. Col tradeoff di avere un sistema stocastisco, anziché dal comportamento deterministico

Io con la 4 ci scelgo pure chi licenziare :snob:

Questa è una fake news. Smentita dall’ ex CEO di GitHub.

chatgpt
uscito oggi per tutti i pro