ChatGPT

E il suo metodo per ripararlo ha funzionato?

yesss, ero alquanto sorpreso e mi sono già ripagato dei 20 euri per attivarlo.

Testerò la stessa cosa per problemi pratici più complessi dove so già la soluzione per vedere se è in grado.

Wat :vface:

Oddio, Licheratore 2.0 bitches!

Se fai una foto a qualcosa e chiedi di descrivere cosa vede, lo fa. Avevo visto un video su YT di una persona cieca che fa così per “vedere”.

L’ho portato al livello successivo.

Premesso che decideranno i giudici usa e che qualsiasi decisione prenderanno comunque non mi smuoveranno dalle mie posizioni, che sono da sempre molto critiche verso ogni tentativo di abuso dei detentori di copyright e brevettame vario.
Ovviamente ritengo giustissimo che esista il copyright, ma solo nella misura in cui tu autore vieni garantito che nessun altro possa appropriarsi e/o pubblicare i tuoi lavori senza il tuo permesso, ma questo non significa che tu detentore del copyright possa decidere, addirittura ex post, di limitare quello che io posso fare con le tue opere. A parte spacciarmi per l’autore e/o ripubblicare in tutto o in parte senza permesso, tutto il resto mi deve essere consentito e non è che posso sottostare a tutti i capricci di chi detiene il copyright. Se mi gira il cazzo io il tuo articolo di giornale me lo leggo 10 milioni di volte fino a impararlo a memoria, oppure lo stampo e mi ci pulisco il culo senza leggerlo. Posso decidete di riordinare le parole in ordine alfabetico o farmelo tradurre in tutte le lingue che mi pare, posso contare le volte che si ripete una determinata parola e farci tutte le statistiche che mi vengono in mente e devo essere libero di farlo facendomi aiutare da persone in carne ed ossa così come da un software dedicato, insomma devo poterci farei il cazzo che mi pare e piace, tranne come già detto spacciarmi per l’autore e/o ripubblicarlo senza permesso.

GPT4-Vision è tanta tanta roba.

Un modello di visione general purpose che non richiede onerosi processi di etichettatura e specializzazione/allenamento :sbav:

Devo ancora testarlo a fondo, ma già in ambito aziendale abbiamo fatto delle sperimentazioni 4fun con risultati sorprendenti. Alcuni esempi:

  • a partire da jpeg di un diagramma di flusso di una pipeline di ETL particolarmente complessa (diagramma fatto da un nostro analista funzionale), gli è stato chiesto di scrivere dello pseudo-codice in python e c’è riuscito
  • a partire da alcune immagini di indirizzi presi da google street view, gli è stato chiesto di descrivere alcune caratteristiche dell’ambiente (tipologia di edifici, qualità, degrado percepito, etc…), con ottimi risultati

I campi applicativi sono infiniti, peccato il costo :asdsad:

1 Like

Ora l’aspirapolvere funziona come prima o pure lui ha cominciato a chiederti 20€ per attivarsi?

Funziona tutt’ora. Surprisingly.

Quanto costa?

Fatto con il plus di chatgpt. Via API mi pare costi 0.005€ a immagine, con res 640*480, più i token in input e output.

Per un task del genere, quindi, fai 0.1€ circa a interazione con l’LLM e moltiplicalo per il numero di interazioni necessari ad avere una risposta soddisfacente

col pricing nuovo credo meno

Here we go again :wall:

Se non sbaglio non hanno toccato i prezzi di GPT4 e GPT4-Vision, ma solo fatto bugfixing e migliorato le performance su alcuni subtask.

nel keynote mi sembrava avessero annunciato un taglio, forse per quanto esce il turbo?

Sì sì, avevano già fatto un taglio pressoché trasversale ai costi qualche settimana fa, con l’introduzione di gpt-4-turbo. Pensavo ti riferissi all’aggiornamento di un paio di giorni fa, dove hanno annunciato uno sconto sui prezzi del 3.5-turbo e due nuovi modelli per gli embeddings

OpenAI ha annunciato diversi aggiornamenti che andranno a vantaggio degli sviluppatori che utilizzano i suoi servizi AI, inclusi nuovi modelli di incorporamento, un prezzo inferiore per GPT-3.5 Turbo, un’anteprima GPT-4 Turbo aggiornata e funzionalità di moderazione dei contenuti più robuste.
La prossima settimana, OpenAI prevede di rilasciare un modello GPT-3.5 Turbo aggiornato e di ridurre i prezzi del 50% per i token di input e del 25% per i token di output. Ciò segnerà la terza riduzione di prezzo per GPT-3.5 Turbo nell’ultimo anno poiché OpenAI mira a favorire una maggiore adozione.
OpenAI ha inoltre aggiornato la sua anteprima GPT-4 Turbo alla versione gpt-4-0125-preview, rilevando che oltre il 70% delle richieste sono passate al modello dal suo debutto. I miglioramenti includono un completamento più approfondito della generazione del codice e di altre attività.

Potrebbe cambiar qualcosa cecio (ma tutte ste c da quando le hai? :asd:)

Chatgpt si è rotto un pezzo di plastica dell’aspirapolvere cosa devo fare?

  • Incollalo

Funziona!

1 Like

non lo ritrovo, mi sembra di aver letto 12.99 al mese, più hai il premium Google One.

l’app mi dice non disponibile nel paese :vface:

You can start using Gemini Advanced by subscribing to the new Google One AI Premium plan, which offers the best of Google’s AI features in a single place. This premium plan builds off the popular Google One service offering expanded storage and exclusive product features.