Generazione immagini ML based a casa - "We have Midjourney at home", letteralmente

Ma i file VMFP che NOD.ai crea van lasciati li’ i se possono cancella’ ?

Domani provo automatic1111

per il momento test insoddisfacenti, non so se sto scazzando coi prompt o cosa, ma ricorda dall-e vs midjourney :asd:

ma giusto qualche test veloce senza pensarci troppo

Io di solito se mi impianto su una determinata immagine che ho in mente gli faccio generare un ambiente che mi piace e lo uso poi come base per le altre immagini.

La parte difficile è generare uno stesso personaggio in svariate situazioni.

Per fare ciò è necessario addestrare un LORA.
Non è facile. E onestamente non ci ho mai provato perché va oltre lo sbattimento che ho voglia di dedicarci.

Aggiungo…

#discorsofilosofico

Provate per.conto vostro ad usare un modello realistico e dargli come base la faccia di qualcuno…

Ecco…
In base ai prompt che userete …
Probabilmente capirete come in un futuro ormai prossimo l’accesso ai volti delle persone diventerà una miniera d’oro.

E dovrebbe farci capire come mai i social network sono il mangime perfetto per questi modelli.

Capirete quindi che forse cancellarsi dai social non è forse una scelta così drastica se si considera il muro di cemento su cui la società si sta per schiantare .

Uno dei tanti video sull’argomento.

ma il deforum lo state usando ? :look:

Non mi costringere a guardare un video :asd:
Di che tecnica si tratterebbe?

tra l’altro quel che vedo così su due piedi è abbastanza mostruoso :asd:

comunque @RoMZERO se vuoi fare una guidetta per tirare su automatic1111 non ti dico di no

forse perché si chiama Eva Green? :vface:

È banale :dunnasd:

Automatic Installation on Windows

  1. Install Python 3.10.6 (Newer version of Python does not support torch), checking “Add Python to PATH”.
  2. Install git.
  3. Download the stable-diffusion-webui repository, for example by running git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git.
  4. Run webui-user.bat from Windows Explorer as normal, non-administrator, user.

Automatic Installation on Linux

  1. Install the dependencies:
# Debian-based:
sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0
# Red Hat-based:
sudo dnf install wget git python3
# Arch-based:
sudo pacman -S wget git python3
  1. Navigate to the directory you would like the webui to be installed and execute the following command:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh
  1. Run webui.sh.
  2. Check webui-user.sh for options.

Ancora più facile easy diffusion anche se ha meno features, ma è molto piu`stabile e meno buggato.

On Windows:

  1. Run the downloaded Easy-Diffusion-Windows.exe file.
  2. Run Easy Diffusion once the installation finishes. You can also start from your Start Menu, or from your desktop (if you created a shortcut).

If Windows SmartScreen prevents you from running the program click More info and then Run anyway.

Tip: On Windows 10, please install at the top level in your drive, e.g. C:\EasyDiffusion or D:\EasyDiffusion. This will avoid a common problem with Windows 10 (file path length limits).

On Linux/Mac:

  1. Unzip/extract the folder easy-diffusion which should be in your downloads folder, unless you changed your default downloads destination.
  2. Open a terminal window, and navigate to the easy-diffusion directory.
  3. Run ./start.sh (or bash start.sh) in a terminal.

To remove/uninstall:

Just delete the EasyDiffusion folder to uninstall all the downloaded packages.

ma fatemi capire, per fare una bella immagine uno deve scrivere dei walltext di aggettivi?

non pare un po’ una boiata?

nera :asd:

I wall text li imposti tu.

Ci sono modelli che hanno bisogno di più prompt sia positivi che negativi ed altri invece che con pochi prompt fatti bene ti restituiscono esattamente quello che hai immaginato.

sono l’unico che non ha capito assolutamente nulla del primo post?

:approved:

Poi ovviamente bisogna installare i modelli nella sottocartella “models\Stable-diffusion”.
Qua se ne trovano diversi e come diceva @char, ce ne sono ottimizzati per diversi stili.

Scusate se mi intrometto a cazzo sapendone poco e niente, ma sto in fissa coi pezzi di sto tipo (scoperto di recente grazie a the end :asd: ) e in alcuni video usano IA anche se no ho idea del come :asd:
Che visto il vibe weird delle canzoni ci stanno benissimo imo

ehm… shark, con lo stesso prompt usato su automatic1111
credo di aver sbagliato qualcosa :asd:

Se metti tutti quei nomi di artista su Stable Diffusion 2.1 ottieni una roba insensata perché il dataset con cui è stato trainato SD 2.1 è molto diverso da quello di SD 1.5: nello specifico ci sono meno foto di personaggi famosi e meno opere artistiche, quindi un “in the style of ARTISTA” sarebbe una parte di prompt largamente ignorata se non fuorviante.

proverò semplificando

quando dicevo in apertura che il prompt è una roba molto grossa:
(tengo le immagini impacchettate perché non vorrei lo showcase di immagini appunto :asd:)

prompt: a muscular woman with white hair, wearing an advanced futuristic full body combat suit, combat zone, forest, burning

negative prompt: ugly, tiling, poorly drawn hands, poorly drawn feet, poorly drawn face, out of frame, mutation, mutated, extra limbs, extra legs, extra arms, disfigured, deformed, cross-eye, body out of frame, blurry, bad art, bad anatomy, blurred, text, watermark, grainy

model: DreamShaper 8

Spacchetta

Nota come abbia totalmente ignorato “burning”. Probabilmente non sa che farci con “burning”: come cross test provo a mettere “burning” da solo e vediamo che esce:

Burning

Come sospettavo.

e perché mai dovrebbe ignorare burning?