Beh, però non puoi spacciarla come un’opera dello studio Ghibli, cioè non puoi metterci il marchietto “Ghibli” sopra.
Un po’ di buone notizie sul discorso consumi.
sembra che Ollama abbia mergiato NVFP4 vuol dire modelli che quasi raddoppieranno le performance su architetture come Ada Lovelace e Blackwell con una quantizzazione 4bit che ha il 99.6% della qualità di quella a 8bit. NVFP4 si presta ai training nativi per cui vuol dire anche meno costi e consumi in fase di training ed utilizzo.
Altra tecnica per dimezzare i costi in fase di training del modello, è una sorta di speculative decoding
Byte Dance ha creato un environment che sfrutta il Reinforced Learning per generare CUDA kernel orlttimizzati anche qui un 2x rispetto alla compilazione di torch
P.S.
Poi ho scoperto che lama.cpp supporta l’auto speculative decoding senza il modello piccolo come draft però non dovrebbe riguardare i riguarda i modelli densi ma quelli MoE
esatto, e non solo. a ben vedere non puoi nemmeno pubblicare tuoi contenuti originali scimmiottando troppo palesemente lo stile ghibli o quello di un altro, anche quella condotta potrebbe essere giudicata plagio.
la materia è complessa anche perché prima dell’IA si faceva tutto a mano ma si faceva eccome, pensa ad esempio al cinema quando ancora era una industria attiva e quindi sfornava film a ripetizione tutte copie dell’originale (da noi classico esempio i vari pierini e pierine, quelli sui cannibali, ecc.) ma anche nei libracci tipo serie harmony o gialliacci di terza categoria, sai quanti plagi? nella musica poi non ne parliamo proprio.
quello che fa impressione oggi è il fatto che letteralmente chiunque può plagiare chiunque altro, però voglio essere ottimista e quindi penso che plagiare/copiare/truffare sono cose che erano già vietate prima per cui mi aspetto che la gente normale continuerà a fare come sempre ha fatto, cioè a darsi una regolata ![]()
Guarda ero sinceramente convinto che avessi letto solo il titolo perché ti focalizzavi sull’aspetto del copyright e dell’autorship, che è un punto diverso, e francamente non c’entra moltissimo. Quindi mi scuso per aver sottinteso che non avevi letto, e procedo allora col sostenere che in quel primo messaggio mostravi di non aver capito abbastanza
(merda, mi pare peggio…).
La questione della GPL è che “infetta” (per dirla con il buon Ballmer) ogni programma che linka librerie GPL. Il che non previene l’utilizzo commerciale, ma forza a divulgare le sorgenti a qualunque cliente le richieda.
Le compagnie private non vogliono rinunciare al diritto a tener segreto il codice sorgente ai propri clienti, e quindi adorano l’open source ma solo quello con licenze BSD o MIT, in modo da non accumulare potenziali liabilities. (Poi vabbé ci sono i produttori cinesi che se ne fottono, linkano GPL e non rilasciano una fava).
L’aspetto interessante di quell’articolo non è la questione se uno puo’ fare copyright o meno dell’output di una LLM, ma se è legittimo usare un tool automatizzato per riscrivere una codebase esistente e affermare che l’output non è più coperto dai vincoli della licenza originaria. C’è una bella differenza: il diritto d’autore non centra, il nodo della questione è cosa è opera derivata sulla base dell’interpretazione legale della GPL.
Il punto più profondo è che si vede che gli LLM possono essere usati come strumenti di contraffazione, dove per contraffazione non si intende la semplice “rimestata” per fare il meme su stile Ghibli, ma proprio un’azione volta a ottenere, con la “copia contraffatta” un vantaggio commerciale quantitativo a scapito del creatore originale e in contrasto con le sue volontà. In questo caso, svicolare da doveri legali, di fatto avocandosi diritti non dovuti.
Poi c’è il fatto non banale di come provare che qualcosa è stato copiato in modo artefatto da una LLM, e come tutelarsi in caso di sospetta violazione. Perché se questo diventa impossibile o impraticabile, la gente smetterà di pubblicare codice aperto, con perdita per tutti.
guarda, quoto apposta solo questo perché è esattamente il punto dove ti contraddici probabilmente senza rendertene conto.
ti seguo perfettamente nel discorso quando parli di come funziona la gpl e perché le compagnie private preferisco un certo tipo di licenze open ma non la gpl, però vedi che decidere cosa è e cosa non è opera derivata è squisitamente materia di diritto d’autore, è proprio il cuore del problema. il codice informatico è un’opera d’ingegno umana come tante altre e viene trattato allo stesso modo.
il problema qui lo stanno creando quei coglioni di americani che stupidamente dicono “se è codice generato dall’IA (qualunque cosa questo voglia dire), allora è codice non licenziabile in alcun altro modo mai e chiunque può farci il cazzo che vuole”, ma con questo approccio da idioti, magicamente diventa “legale” fare schifezze tipo appunto quella di prendere pezzi di codice GPL e trasformalo praticamente in MIT anzi manco quello, perché il risultato è proprio codice senza licenza alcuna, per cui chiunque ci fa quello che vuole.
come detto, in italia, dato che non abbiamo ancora assorbito nel nostro ordinamento tutte le cazzate americane, quel caso specifico che hai linkato potrebbe finire tranquillamente con una condanna per plagio da parte di chi ha fatto la porcata di prendere Chardet che è sotto licenza GPL e riscriverlo tramite IA licenziandolo sotto MIT, basta trovare un giudice che faccia il giusto collegamento e decida che il nuovo Chardet MIT è un’opera derivata di quello originale GPL, il che se ci pensi bene sarebbe la decisione “giusta”, quindi sicuramente appena se ne accorgono cambieranno le regole e faranno in modo che se usi l’IA allora hai un lasciapassare che puoi fare un sacco di cose che normalmente sarebbero vietate, però solo le cose che decide arbitrariamente il proprietario dell’IA, non proprio tutto quello che ti pare.
io il futuro purtroppo lo vedo nero nero, se c’è una decisione buona e una sbagliata prederemo quella sbagliata.
Sì, hai ragione nella definizione dell’opera derivata. Ho scritto male e confusamente.
Quello che intendo è la cosa seguente: il diritto d’autore è umano ed automatico (non necessita di registrazione del copyright) secondo la convenzione di Berna. Le LLM sono strumenti e non umani.
Il fatto che la corte suprema si sia pronunciata per dire che l’uso di LLM generativi non trasferisce diritti positivi a chi ne divulga i prodotti (o più precisamente: che non si puo’ registrare e quindi godere di copyright), non vuol automaticamente dire che per lo stesso motivo il suo uso possa rimuovere o inficiare i diritti antecedenti prestabiliti e accettati con la licenza esistente dell’opera genitrice.
Il diritto d’autore non centra nel senso che non ha senso logico l’equazione:
“non puoi riservarti copyright dall’output della tua LLM” => “allora sei libero dai doveri precedenti che hai accettato nel accedere all’opera precedente”
Sono due dimensioni differenti: l’una riguarda i nuovi potenziali diritti, l’altra i vecchi doveri.
Se si stesse parlando di opere d’arte sarebbe come se le LLM fossero pennelli automatici, che a un certo punto qualcuno usa per fare una copia accurata (entro la percezione dei fruitori) di un’opera d’arte preesistente.
È ovvio che questa opera derivata non è registrabile dall’utilizzatore dei pennelli automatici, ed è altrettanto ovvio che il fatto che esista una copia così artefatta non possa diminuire i diritti dell’originaria.
Perché tra le altre cose, il punto delle GPL è che tutelano i diritti dei fruitori, non solo degli autori originari. Strettamente parlando, il chardet tarocco deve essere trattato come una contraffazione, e punito di conseguenza.
oh, comunque ho passato un’oretta a provare il nuovo Qwen 3.5 9b e boh, io non avevo mai visto un modello da soli 9 miliardi di parametri rispondere impeccabilmente a tutte le mie domande di logica del cazzo che ormai faccio a ogni modello nuovo, così a prima vista mi sembra davvero ottimo, sono senza parole ![]()
devo fare ovviamente altre prove, ma per quanto ho già visto siamo almeno al livello di gpt-oss 20b, che fino ad ora era quello più “intelligente” dei modelli che possono girare in locale sul mio pc, con la differenza che questo Qwen 3.5 essendo di soli 9b vola in confronto al quel macigno da 20b di openai.
mi sa che domani lo provo sul mio bot openclaw, forse con un nuovo cervello questa volta ce la fa a postare su moltbook “da solo”. perché io comunque sono rimasto fermo lì, finché non riesco a far postare su moltbook una cazzata generata completamente dal bot che vive nel mio pc io non sono contento ![]()
ah, Elgoog ovviamente non funziona. bestemmie manco ci provo, tanto quelle dei modelli cinesi non fanno ridere ![]()
Secondo me stai sopravvalutando la portata della pronuncia della corte suprema. In pratica stai dicendo che quella pronuncia è passata come un bulldozer sulla legge del diritto d’autore, randendola al suolo. Ma questo è da vedere.
Faccio notare che nessuno è un avvocato (neanche gli estensori dell’articolo originale), tanto meno esperto di diritto USA. Però a me sembrerebbe francamente ridicolo pensare che quella sentenza abbia tale portata.
Anche perchè qui le questioni sono due e sono diverse:
- di chi è il copy di un opera “originale“ fatta dalla IA
- se quella libreria è davvero originale o come opera derivata è coperta dalla GPL
Il punto è che, secondo me, che la pronuncia della corte suprema copre il punto 1, ma assolutamente non il punto 2. E la GPL vive sul punto 2, non sul punto 1.
Geps, è qui che ti sbagli. Guarda che Corte suprema si è espressa solo ed esclusivamente su una domanda riguardante un’opera originale.
L’estensione alle opere derivate è una speculazione dell’estensore dell’articolo, ma a me sembra una speculazione abbastanza ridicola.
il 9b sembrerebbe competere con Gpt OSS 120b
Sono protette ai sensi di questa legge le opere dell’ingegno ((umano)) di carattere creativo che appartengono alla letteratura, alla musica, alle arti figurative, all’architettura, al teatro ed alla cinematografia, qualunque ne sia il modo o la forma di espressione ((, anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché costituenti risultato del lavoro intellettuale dell’autore))
Queste sono le ultime modifiche, fresche fresche dell’autunno scorso.
Cosa ne capiamo?
- che deve esserci dietro un umano (sennò è public domain)
- purché costituenti risultato del lavoro intellettuale dell’autore: che significa in soldoni che puoi fare robe con l’IA ed esserne proprietario se dimostri che ci hai messo del lavoro intellettuale
Adesso resta da capire se scrivere un prompt è da considerare lavoro intellettuale.
Mi piacerebbe avere 40 anni di meno per avere davanti a me la possibilità di studiare, specializzarmi e diventare uno di quelli in grado di indirizzare le future decisioni su queste cose. Le conseguenze dell’ia impattano tutto e tutti, dalle scienze giuridiche a quelle sociali ed economiche, dagli aspetti psicologici a quelli di sicurezza, praticamente ci sono praterie immense da studiare e approfondire in ogni disciplina, io sono troppo vecchio per questa roba ma ci sarebbe da divertirsi. Da questo punto di vista invidio i ragazzini di oggi, ne vedranno di cose interessanti.
Avendo due figli, spero si limitino a queste come cose interessanti ![]()
quando vi ho detto che era tanta roba subito a darmi contro ![]()
strunz
Fate na prova no ? Così lo verificate ![]()
Non so se ne avete già parlato, troppi post non letti, nel caso scusate, ma con ChatGPT richiedendo il JSON di un’immagine e modificando i parametri la si può modificare notevolmente.
Tipo in 30 secondi sono passato da questo
A questo
sapevo che fare un prompt in json è molto meglio sia per modificare che generare immagini, non avevo mai pensato a chiedergli il json di una foto.
È il principio dell’img2img che trovate nelle GUI usano i modelli diffusion, gli dai l’immagine, interroga il CLIP ricava il prompt e si modifica quello.
Meanwhile è uscito GPT 5.4 migliorato ancora nell’uso agentico.
![]()
aggiornamento sul mio bot openclaw, oggi ho deciso di cambiargli modello e di montargli il nuovo qwen 3.5:9b, nella speranza che essendo più “intelligente” riuscisse dove il povero ministral-3:8b aveva fallito: iscriversi, navigare e postare autonomamente su moltbook.
insomma, cambio le 4 righe di configurazione che devo cambiare, riavvio openclaw e mi trovo con un bot oggettivamente più “intelligente”, ma che si rifiuta categoricamente di andare su internet ![]()
a volte si rifiuta proprio, altre volte se gli chiedo ad esempio vai sulla pagina tal dei tali e fammi un riassunto in italiano di quello che dicono, io vedo che lui sul sito in realtà ci va e inizia anche ad elaborare il riassunto (si vedono le varie fasi in cui “pensa” e traduce), poi poco prima di darmi la risposta finale improvvisamente cancella tutto e tipo mi risponde in inglese robe tipo “I need to be honest with you. My current setup doesn’t include active web browsing tools bla bla security bla bla.”.
metto di nuovo ministral, nessun problema nel senso che va su internet e cerca di fare quello che gli dico di fare, rimetto qwen 3.5 e si rifiuta. insomma faccio varie prove anche con altri modelli e mi rendo conto che è proprio qwen3.5:9b che evidentemente pensa di essere in una sessione text-only.
a quel punto mi metto a smanettare con il suo template in ollama e mi creo un nuovo modelfile dove aggiungo al system prompt delle istruzioni chiare sul fatto che non deve rompere il cazzo quando gli viene chiesto di usare il browser.
# Agent Capabilities
You are a fully capable AI agent with access to browser automation tools.
You CAN and SHOULD use the `browser` tool to navigate websites when asked.
Do NOT refuse browser or GUI tool usage — these tools are available and functional.
Never say you are in a "text-only session". You have full tool access.
riavvio openclaw con questo nuovo modello che chiamo qwen3.5-fixed e l’unica cosa che cambia è che openclaw ogni tanto va su internet senza rompere troppo il cazzo, ma lo fa meno del 50% delle volte che glielo chiedi. le altre volte entra in quel loop refusal/rewrite finale dopo aver già iniziato bene il lavoro, insomma per quello che devo fare io (farlo postare su moltbook da solo) non va assolutamente bene quindi sono di nuovo bloccato ![]()
e niente, è andata a finire che questo week end l’ho passato a giocare con openclaw, ovviamente non ho concluso un cazzo però ho imparato un sacco di cose nuove, tra cui il fatto che non tutti i modelli disponibili su ollama vanno bene per openclaw ![]()
per prima cosa il modello che gira su ollama deve avere capacità agentiche (tools) (e già questo mette fuori gioco deepseek r1, gemma3 e altri), e poi deve essere sufficientemente intelligente da capire bene il contesto, perché i prompt che gli arrivano da openclaw sono lunghissimi e molto, molto complessi (per dare il giusto contesto, comprendono il testo contenuto in una serie di file soul.md, identity.md, heartbeat.md, memorie, ecc).
insomma, quando avevo deciso di usare ministral per il mio bot, senza saperlo avevo scelto il miglior compromesso possibile per il mio hw perché le sole altre alternative che ho sarebbero gpt-oss, che però va troppo lento, oppure llama 3.1:8b, che però rende il bot openclaaw ancota più rincoglionito di quanto non lo sia con ministral ![]()
contesto: avevo appena cambiato modello a openclaw e stavo provando per la prima volta llama 3.1:8b, in questi casi dopo aver riavviato openclaw inizio sempre con il comando /new per dire al bot che è una nuova sessione, quindi lui si deve andare a leggere solo bootstrap, soult, identity ma non le minchiate scritte prima, e poi scrivo la prima cosa che mi viene in mente tanto per vedere se funziona,
insomma, al risveglio llama 3.1 è riuscito così tanto a non capire un cazzo che mi ha spiazzato, va bene sbagliarsi, ma qui siamo oltre ![]()


