ChatGPT

Non male questo LM Studio, anche se come interfccia preferisco di gran lunga quella di AnythingLLM.
cmq ho provato ANITA, è veramente una merda :asd:

per ora il migliore che ho provato è proprio Llama3 8G e mi sa che è l’unico che terrò non appena mi stanco di provarne altri :sisi:

Ti piace più Llama 3 o chatgpt?

chatgpt genera testo migliore, ma non gira in locale. quindi la mia unica opzione per alcuni task specifici è Llama3, pur con le sue maggiori limitazioni.

Da Ilya Sutskever.

L’ho provato in locale (ovviamente il modello 16b :asd: ) e devo dire che sono rimasto piacevolmente sorpreso. Gli ho chiesto svariate cose e me le ha fatte bene. Mi ha addirittura scritto un emulatore basico del chip-8 funzionante con pong.

:sisi:

https://twitter.com/OpenAI/status/1805679342439284831

Per la velocita’ con Llama 3 hai provato Groq? E’ assurdo quanto e’ veloce. Io uso la loro API con la app per macOS BoltAI, insieme a Claude e ChatGTP come modelli. Vista la velocita’ con Groq and visto che Lllama 3 e’ abbastanza decente con basi di conoscenza generale, uso Llama 3 con Groq come modello default, e Claude Sonnet 3.5 o GPT-4o per domande piu’ avanzate.

Si cominciano ad intravedere i primi video commerciali fatti con Sora

https://twitter.com/mr_allent/status/1805628715017072924?s=46

si vede dalle biciclette in background :asd:

Con copioso editing mi pare di capire, sempre problemi di consistenza.
Questo mi fa piú impressione:

e allora vai sul thread del text2video a impressionarti seriamente :asd:

btw l’ai non serve a niente, ammesso sia veramente ai :asd: che mi sembra più un modello di ricostruzione 3d

L’esempio del Policlinico di Blogna dimostra le potenzialità sull’utilizzo dell’IA all’interno degli ospedali. Ma dietro c’è sempre l’esperienza di un’equipe medica

Ma è ovvio, è uno strumento da usare in affiancamento, non in sostituzione alle persone e lì sì che da il meglio.
Tutti gli esperimenti fatti finora dove vogliono sostituirsi al 100% alle persone si sono dimostrate un fallimento, ma usata così è ottima ed è un’integrazione eccellente che accorci tempi di lavoro\sviluppo\ragionamento e tutto.

A me ha accorciato certe tempistiche dell’80%, per me è uno strumento di lavoro ormai. Due anni fa non ci avrei mai creduto, invece eccomi qua a far scrivere la struttura generale dei testi e far fare le immagini alle AI, per poi rifarmi tutta la correzione e revisione degli uni e l’editing delle seconde. Tra l’altro a due soldi, è un investimento da forse 50 euro al mese in totale, standoci larghi, e si potrebbe quasi azzerare affidandosi di più ai tool gratuiti, ma è giusto per togliere limitazioni.

2 Likes

https://twitter.com/tsarnick/status/1806526891354132604?s=46

https://twitter.com/tsarnick/status/1806536756147388584?s=46

1 Like

qualcuno che sta sviluppando con le api e dalle risposte tira fuori magari dei risultati che non siano semplice testo?

per capirci. ho bisogno che magari chiedendogli cosa c’è nel menu. visualizzo 4 immagini e non solo 4 righe di testo.

tnx

Che tipo di immagini?

Non puoi chiedere direttamente al modello generativo di estrarle, perché in assenza di un tool da richiamare via function calling, le genererebbe lui con risultati inconsistenti rispetto al contesto di riferimento.

Dovresti usare l’LLM come “decision engine” e avere a valle alcuni tool (API) da invocare per eseguire specifiche operazioni, le cui istruzioni le cabla l’LLM sulla base di ciò che ha appreso del task in questione.

Sono stato generico, ma non mi è chiaro lo use case.

guarda già gli do in pasto un pdf da cui tira fuori bene o male quello che voglio.
poi stavo vedendo rag e vector database ma qui si complica un bel po’.

quello che voglio è che oltre a tirarmi fuori la risposta (che quello con pdf cucito ad arte alla fine lo fa) genero degli embed/immagini etc

lo posso fare solo facendo la finta post risposta? del tipo intercetto le info e se corrispondono con un “if” e determinate parole e io injecto nell’interfaccia quello che voglio? immagini. embed di gmaps con punti etc?

ho dovuto iniziare a giocare con queste cose da oggi a domani quindi sto cercando di capirci qualcosa :asd:

Mi son fatto un modello di report seo che prende tutti gli screen da analytics, search console, semrush etc, li passa a 4o e quest’ultimo li interpreta e scrive tutta la valutazione dei risultati.

Ore di lavoro risparmiato, è abbastanza fuori parametro.

Non mi è chiaro da dove devi tirar fuori questi asset grafici.

Dal PDF stesso? Li devi creare ex novo? Recuperare da altri servizi come google maps?

Perché la tecnica cambia sensibilmente nei 3 casi. E forse tu ne intendi un quarto che non ho colto io :asd:

.edit. riletto. Forse intendi che sulla base dell’esito dell’estrazione delle informazioni dal documento, vuoi che il tuo applicativo si comporti in una certa maniera? In quel caso è ancora più semplice: devi solo ricevere in output dal LLM un dato strutturato (esempio tipico: JSON) anziché un testo.