ControlNet hjælper dig med at skabe perfekte hænder med stabil diffusion 1.5

Følgende artikel hjælper dig med: ControlNet hjælper dig med at skabe perfekte hænder med stabil diffusion 1.5

Den eneste ting, tekst-til-billede AI-generatorer har kæmpet med, er hænder. Selvom billeder generelt er imponerende, er hænderne mindre, med overflødige fingre, underligt bøjede led og en klar mangel på forståelse af, hvordan hænder skal se ud fra AI’s side. Dette behøver dog ikke at være tilfældet, da det nye ControlNet-produkt er her for at hjælpe Stable Diffusion med at skabe perfekte, realistisk udseende hænder.

ControlNet er en ny teknologi, der giver dig mulighed for at bruge en skitse, en skitse, en dybde eller et normalt kort til at guide neuroner baseret på Stable Diffusion 1.5. Det betyder, at du nu kan have næsten perfekte hænder på enhver brugerdefineret 1.5-model, så længe du har den rigtige vejledning. ControlNet kan opfattes som et revolutionerende værktøj, der giver brugerne mulighed for at have ultimativ kontrol over deres design.

For at opnå fejlfri hænder skal du bruge A1111-udvidelsen med ControlNet, specifikt dybdemodulet. Tag derefter et par nærbilleder af dine hænder og upload dem til ControlNet UI’s txt2img-fane. Opret derefter en simpel drømmeformende prompt, såsom “fantasikunst, vikingemand, der viser hænder nærbillede”, og eksperimenter med styrken i ControlNet. Eksperimentering med Depth-modulet, A1111-udvidelsen og ControlNet UI’er txt2img-fanen vil resultere i smukke og realistisk udseende hænder.

ControlNet konverterer selv billedet, som det får, til dybde, normaler eller en skitse, så det senere kan bruges som model. Men du kan selvfølgelig uploade dit eget dybdekort eller skitser direkte. Dette giver mulighed for maksimal fleksibilitet, når du opretter en 3D-scene, så du kan fokusere på stilen og kvaliteten af ​​det endelige billede.

🔥 Anbefalede:  Twitter Circle kommer snart. Her er hvad du behøver at vide

Vi anbefaler stærkt, at du ser på det fremragende ControlNet tutorial som Aitrepreneur for nylig har udgivet.

ControlNet forbedrer i høj grad kontrollen over Stable Diffusions billed-til-billede-funktioner

Selvom Stable Diffusion kan skabe billeder ud fra tekst, kan den også skabe grafik fra skabeloner. Denne billed-til-billede-pipeline bruges ofte til at forbedre genererede fotos eller producere nye billeder fra bunden ved hjælp af skabeloner.

Mens Stable Diffusion 2.0 tilbyder muligheden for at bruge dybdedata fra et billede som skabelon, er kontrollen over denne proces ret begrænset. Denne tilgang understøttes ikke af den tidligere version, 1.5, som stadig er almindeligt anvendt på grund af det enorme antal brugerdefinerede modeller, blandt andre årsager.

Hver bloks vægte fra Stable Diffusion kopieres af ControlNet til en oplærbar variant og en låst variant. Den blokerede form bevarer mulighederne for den produktionsklare diffusionsmodel, hvorimod den oplærbare variant kan lære nye betingelser for billedsyntese ved at finjustere med bittesmå datasæt.

Kontrol over Stable Diffusions billed-til-billede-funktioner er stærkt forbedret af ControlNet

Stable Diffusion fungerer med alle ControlNet-modeller og giver betydeligt mere kontrol over den generative AI. Holdet giver prøver af flere variationer af mennesker i faste positurer, samt forskellige interiørfotos baseret på modellens rumlige arrangement og variationer af fuglebilleder.

Læs mere om AI:

Table of Contents