Generazione immagini ML based a casa - "We have Midjourney at home", letteralmente

@Crius

{
  "prompt": "(2d artwork, drawing), young male, fantasy character,  monk warrior , bald, black eyes, shaolin clothes, looking at viewer, hood, red tunic , collared shirt, cowboy shot, fantasy city streets",
  "seed": 94761692,
  "used_random_seed": true,
  "negative_prompt": "realistic, photograph,",
  "num_outputs": 1,
  "num_inference_steps": 25,
  "guidance_scale": 7,
  "width": 512,
  "height": 1024,
  "vram_usage_level": "high",
  "sampler_name": "dpmpp_sde",
  "use_stable_diffusion_model": "dreamshaper_8",
  "clip_skip": true,
  "use_vae_model": "",
  "stream_progress_updates": true,
  "stream_image_progress": false,
  "show_only_filtered_image": false,
  "block_nsfw": false,
  "output_format": "png",
  "output_quality": 95,
  "output_lossless": false,
  "metadata_output_format": "none",
  "original_prompt": "(2d artwork, drawing), young male, fantasy character,  monk warrior , bald, black eyes, shaolin clothes, looking at viewer, hood, red tunic , collared shirt, cowboy shot, fantasy city streets",
  "active_tags": [],
  "inactive_tags": [],
  "use_lora_model": "more_details",
  "lora_alpha": "0.5",
  "enable_vae_tiling": true
}

edit:

questo invece ĆØ come era impostato ED

non so neanche dove dovrei infilare quel json :asd:

Lā€™unica cosa che ho come UI eā€™ un pulsante per cui se scrivo tutto il papiello della configurazione nel prompt e poi premo

image

Imposta il resto da se ma sti cazzi percheā€™ tanto non saprei cosa scrivere di base laā€™ dentro, eā€™ buono giusto per copiare i prompt :no:

btw, stavo cercando di usare la funzione train visto che ho una gozzilione di assets e volevo generarmene alcuni per delle mappe ma non cā€™eā€™ versi che veda lā€™embed generato. Ho letto che eā€™ una questione di versione del model ma se seleziono un model, vado su train, creo lā€™embed e poi faccio il trainā€¦ dovrebbe crearlo della versione giusta no? WTF?

Cmq per lā€™uso che dovrei farne eā€™ ancora troppo esoso di tempo per impararlo. Cioeā€™ bazzico con nuove tecnologie ogni giorno dispari ma qua ho buttato tutto il giorno e piuā€™ che qualche immagine vagamente di quello che volevo non son riuscito a fare. Come vado per rinifire con lā€™img2img e compagnia bella, vien fuori il cazzo che gli pare.
Se provo a dare prompt piuā€™ precisi, non fa una sega o devi completamente. Se seleziono un seed per restare su quella creazione praticamente non cambia piuā€™ un cazzo, non importa cosa cambio nel prompt :asd:

Insomma, bella storia ma ancora siamo lontano dal ā€œinstalla, smanetta e butta fuori quello che voleviā€. Sopratutto percheā€™ cā€™eā€™ tutto un gergo da imparare nei prompt che varia da modello a modello, nei lora persino visto che dipende su che tag li hanno creati e trainati e in tutto questo ci sono i weigth che pure laā€™, mica eā€™ cosi ovvio come gestirli e che prioritaā€™ gli viene assegnata.

Edit: dimenticavo. La maggior parte di chi ha un pc per giocare e quindi con piuā€™ probabilitaā€™ una scheda grafica che puoā€™ far qualcosa, gira ancora oggi con una 1660 o al massimo una 3050.

Io sto con una 3070, mobile per caritaā€™, quindi piuā€™ come se avessi una 2070 se non ricordo male, ma comunque stiamo a tempi di generazione troppo alti ancora. E assolutamente impossibile per chi avraā€™ schede ancora della generazione 16xx che, piaccia o meno, eā€™ la maggioranza. Mi ha colpito sta cosa percheā€™ diversi siti vedo che ripetono tipo sermone ā€œdemocratizzare la generazione tramite AIā€ maā€¦ mhm, famoā€™ che eā€™ un bel pensiero e basta per ora :dunnasd:

Ripasso tra un annetto :sisi:

1 Like

Si quello si. Mi pare che alla fine sono tutti wrapper per funzioni pitone sotto sotto e solitamente sono velocissimi ad implementare cose nuove ma non fanno un vero studio di ux dietro, piazzano due bottoni e go

Quando hai due gg liberi, Se ti gira automatic111 prova a installare confyui come estensione (dal tab estensioni di a1111); eā€™ una ui dove hai tutti vari nodi che puoi connettere per farti la tua pipeline, per cui boh una volta che hai capito come funziona ti puoi fare una pipeline tipo ā€˜genera foto di un duca conteā€™ prendi l output e lo passi al face swapper e ci metti la tua foto, prendi tutto e passi a un nodo che ti applica uno stile che vuoi etc etc

La cosa fica eā€™ che le info sui nodi vengono salvate con lā€™immagine nei metadata quindi se scarichi un immagine che ti piace fatta da qualcuno e la trascini nel browser ti apre il workflow col seed e tutti I settaggi

Oppure se trovi un immagine che hai fatto sei mesi fa

2 Likes

questi sono dei mostri che ho generato per una campagna di qualche gdr di un mio amico

https://imgur.com/a/IhWiu8I

setup assolutamente non ottimizzato (tipo i modelli stanno su unā€™altra partizione piuā€™ lenta etc etc) ci mette 30 secondi a generare unā€™immagine 4096 * 4096 (1024*1024 upscalata)

questo il workflow

workflow

percheā€™ quando masterizzavo 20 anni fa io ste cose non esistevano :bua:

3 Likes

Primi test con ComfyUI e AnimateDiff :look:

praticamente i sogni psichedelici di blade runner

con etĆ  che varia dai 12 ai 16 anni :rotfl:

1 Like

corteccia prefrontale etc etc

quando si allunga il culo da una spalla comunque ĆØ veramente dreamlike :vface:

daje

quando siamo almeno quattro as usare comfyui apriamo il thread per scambiarci i workflow

semi ot - potenziale per contest/trivia su musica? :asd:

3 Likes

Ps: fatti on the fly con random seed, sparate altre copertine e un prompt che ho il pomeriggio libero prima che si sveglia il nano :asd:

questa al tempo era la grossa differenza tra A1111 e SHARK, fare un workflow col secondo era impossibile ed invece ĆØ quello il sistema per avere roba carina

1 Like

Bello questo effetto: Embers SDXL & SD1.5 - SDXL | Stable Diffusion LoRA | Civitai

1 Like