Generazione immagini ML based a casa - "We have Midjourney at home", letteralmente

Here

1 Like

mandato

1 Like

Manda anche qua va?

1 Like

Dopo una rapida scorsa, i censori di NGI hanno deciso che forse non è il caso di farla diffondere qua sopra :asd:

Non chiedete e non offrite sta guida (Se vuoi fare una pulizia dei link e postare la roba ok, sentiti libero @mistych ) :approved:

appena ho un po di tempo libero faccio pulizia e posto la lista :approved:

1 Like

allora, inizio con qualche link per installazione locale (non ho controllato ma probabilmente la guida di LL sul suo blog e’ meglio) di diversi motori:

Installazione locale:

Guide:

Bonus:

per ora e’ tutto, dovrebbe essere tutto SFW.
Postero’ nuovi link appena ho tempo anche se solo huggingface.com ha tanta di quella robe che basterebbe solo quel link :asd:

1 Like

Questo è un modello distillato di SDXL più piccolo, più veloce sembra pure ottimizzato per produrre immagini alla midjourney vediamo se diventa il dreamlike-photoreal di SDXL :nerdsaw:

Se usate la webui di automatic1111 scaricate la versione SSD-1B-A1111.safetensors da qui.

Se volete testarlo da web andate qui

Mi sembra che nessuno lo abbia nominato in questo topic. Se vi piace fare esperimenti con differenti interfacce e volete un modo easy per condividere modelli e lora senza impazzire con i file di configurazione, c’è questo progetto molto bello:

Stability Matrix

non so se e’ il thread giusto anyway

uso a1111 (pincipalmente comfyui ma non e’ importante) su ubuntu

per una serie di motivi (pytorch) devo usare i cuda vecchi

anyway dopo svariati tentativi come dicevo ho un sistema stabile abbastanza da copiare workflow avanzati di comfy ui e farli girare senza problemi

ho una 2080 super da povero

volendo capire quanto ci perdo in prestazioni rispetto a switchare su windows dove magari tutto e’ un po’ piu’ aggiornato?

ci sta un benchmark di riferimento per schede video?
tipo ‘co sto modello_1.x dovresti fare x it/s’ e cosi’ via?

oltretutto (raffica di domande)

  • qualcun’altro che usa comfy ui? qualche risorsa valida per approfondire concetti piu’ avanzati? o workflow che usate/vi sono utili etc.etc.

  • spesso becco OOM error. quale scheda conviene tener d’occhio per bumpare la mia vetusta 2080 super?

il bench che in genere si faceva con la automatic1111 era quello di usare la v1-5-pruned-emaonly.safetensors lasciare tutto a default ( DPM++ 2M Karras, res 512x512, batch count/scale 1, CFG scale 7 ) e alzare i sampling steps a 200 dare Chair come prompt e vedere a quanti it/s arriva.

Riguardo alla versione di CUDA le ottimizzazioni della 12.x dovrebbero essere a beneficio solo degli ultimi modelli quando testai l’upgrade dagli 11.8 ai 12.1 con la mia 4080 ricompilandomi gli xformer per la automatic1111 non notai alcuna differenza in prestazioni su WIN10.

Coi parametri di bench che ho scritto prima, facevo circa 24.5it/s due-tre mesi fa con la automatic1111 v1.6 anche oggi con gli ultrimi driver vado uguale ( noto che ora c’é la v1.7 dopo faccio un test anche con quella )

il salto lo fai con i TensorRT ne ho parlato qualche post sopra con quelli ho quasi raddoppiato le prestazioni arrivando a 40.09it/s :lode:

1 Like

domanda da ignorante, esiste uno strumento (stable diffusion o altro) in grado di partecipare a un contest? mi vengono in mente contest epici come le gemelle k o anche le mozzarelle della libertà, esiste un sistema per digli: “questa è la foto, prendi belusconi con la mozzarella in bocca e mettigli in mano un mandolino”
ricordo che con la mia skill nulla ci misi una vita con gimp, per poi ovviamente tirare fuori una mezza merda :asd:

Automatic1111 e comfy ui col giusto workflow, ma è’ il solo che conosco

Ci saranno mille alternative più easy

aggiornato Automatic1111 alla 1.7 ( l’unica differenza che noto è lo slider dei sampling steps a 150 massimo ) per scrupolo ho scaricato anche le ultime .dll cuDNN e le ho poste nella subfolder di torch, stesse prestazioni, mi sa che ormai siamo al massimo raggiungibile con il metodo classico e si debba puntare su robe come TensoRT che ricompilano appositamente il modello sfruttando algoritmi più efficienti.

@geps ti posso dire che quello che hai descritto si chiama image inpainting putroppo gran parte dei tool online sono a pagamento, magari ne trovi qualcuno che da qualche demo gratuita per un tot di immagini :sisi:

Ma perchè switchare su windows quando puoi continuare ad usare il software per il sistema per cui è stato progettato semplicemente usando una distro rolling o più bleeding edge?

Il pc è dedicato allo scopo?
Installati openSUSE MicroOS e vai da dio. Installi Automatic nella tua HOME da git e ti usi tutta la roba più recente.

E se proprio vuoi continuare ad usare ubuntu puoi usare distrobox per crearti una scatolina con arch e farci girare tutto quello che ti serve con i repo di arch

no infatti io in realta’ non voglio switchare (che poi c’ho gia’ doppio boot) ero giusto curioso perche’ leggendo tutte le guide online la maggiorparte sono su windows per cui mi chiedevo come era la situazione li ma mi pare di capire che in realta’ c’ha gli stessi problemi

su ubuntu vs altre distro non ho preferenze, non sono linuxaro ma mi fa comodo avere una shell e preferisco programmare sotto linux e non sbattermi troppo per far funzionare steam
per il resto accendo il pc personale giusto per cazzeggiare con queste cose o prototipare qualche app/sito/etc.etc

pero’ sicuro provo con distrobox e arch, anche se penso che il problema specifico di dover usare i cuda 11.8 non dipenda tanto dalla distro

esiste qualcosa per creare video o animazioni?

si

qualcosa però tipo invideo.ai?

Pare un po’ meno avanzato di questo, diciamo

Lato stable diffusion hanno rilasciato stable cascade, qualcuno lo ha provato?