Gerou uma imagem de IA de difusão estável, mas não é bem o que você quer? Neste artigo, vou lhe ensinar algumas técnicas simples de prompt para que você possa discar suas imagens.
Arquivos de Categoria: Tutorial
A iluminação desempenha um papel crucial na fotografia e tem um impacto significativo na qualidade geral e no clima de uma imagem. Você pode usar a iluminação para realçar o assunto, criar profundidade e dimensão, transmitir emoções e destacar detalhes importantes.
Neste post, você aprenderá sobre os seguintes métodos para controlar a iluminação
- palavras-chave de iluminação
- Solicitação regional
- ControleNet img2img
Cognvideo é um gerador de vídeo de IA de última geração semelhante ao Kling, exceto que você pode gerar o vídeo localmente no seu PC. Neste artigo, você aprenderá como usar o Cogvideo no ComfyUI.
Depth-to-image (Depth2img) é um modelo subestimado no Stable Diffusion v2. É um aprimoramento do image-to-image (img2img) que aproveita as informações de profundidade ao gerar novas imagens.
Neste tutorial, daremos uma olhada nos bastidores para ver o que ele é, como instalar e usar, e o que ele pode fazer por você.
Você sabia que pode especificar os prompts para diferentes regiões de uma imagem? Você pode fazer isso no AUTOMATIC1111 com a extensão Regional Prompter .
Neste post, você primeiro passará por um exemplo simples passo a passo de uso da técnica de prompting regional. Então você aprenderá usos mais avançados de uso de prompting regional junto com ControlNet.
Você quer criar imagens grandes com Stable Diffusion com muitos detalhes? Você precisará usar um upscaler. Neste post, você aprenderá 3 métodos para upscale de imagens.
- Upscalers de IA
- SD de alto padrão
- ControlNet ladrilho de alto padrão
Você verá uma comparação e aprenderá sobre os prós e contras desses métodos.
Talvez você queira aprender o básico sobre upscalers se não estiver familiarizado com o assunto.
Os upscalers de imagens de IA como o ESRGAN são ferramentas indispensáveis para melhorar a qualidade das imagens de IA geradas pelo Stable Diffusion. Ele é tão comumente usado que muitas GUIs do Stable Diffusion têm suporte integrado.
Aqui, aprenderemos o que são upscalers de imagem, como eles funcionam e como usá-los.
Você coloca o que NÃO quer ver no prompt negativo. Ele fornece uma maneira adicional de controlar a geração de texto para imagem. Muitas pessoas o tratam como um recurso opcional no Stable Diffusion v1.5. As coisas mudaram com o lançamento do Stable Diffusion v2. O prompt negativo se torna indispensável.
Neste post, vou abordar alguns casos de uso de prompts negativos, incluindo modificação de conteúdo e estilo. Então, vou demonstrar a importância dos prompts negativos em modelos v2. Vou demonstrar como pesquisar um prompt negativo universal .
Esta é a segunda parte de uma série sobre prompts negativos. Leia a primeira parte: Como funciona o prompt negativo .
O prompt negativo é uma maneira adicional de cutucar o Stable Diffusion para lhe dar o que você quer. Ao contrário do inpainting , que requer desenhar uma máscara, você pode usar um prompt negativo com toda a conveniência da entrada de texto. Na verdade, algumas imagens só podem ser geradas usando prompts negativos.
Neste artigo, revisaremos um exemplo simples de uso de um prompt negativo. Então, você aprenderá como um prompt negativo funciona em Stable Diffusion.
Esta é a primeira parte da série de duas partes sobre o uso de prompts negativos. Veja a segunda parte: Como usar prompts negativos para diretrizes sobre como construir bons prompts negativos.
Embedding , também chamado de inversão textual , é uma maneira alternativa de controlar o estilo de suas imagens no Stable Diffusion. Revisaremos o que é embedding , onde encontrá-los e como usá-los .
Dreambooth é uma maneira de colocar qualquer coisa — seu ente querido, seu cachorro, seu brinquedo favorito — em um modelo de Stable Diffusion. Apresentaremos o que é Dreambooth, como ele funciona e como executar o treinamento.
Este tutorial é destinado a pessoas que já usaram o Stable Diffusion, mas nunca usaram o Dreambooth antes.
Você seguirá o guia passo a passo para preparar suas imagens de treinamento e usar nosso notebook Colab fácil de 1 clique para treinamento dreambooth. Nenhuma codificação é necessária!
Você pode colocar objetos ou pessoas da vida real em um modelo de Difusão Estável e gerar imagens em diferentes estilos e configurações.
A Stability AI lançou uma prévia de um novo modelo chamado SDXL Beta (Stable Diffusion XL Beta). Eles não nos contaram muito sobre o modelo, mas ele não está disponível para quem quiser testá-lo.
O que há de novo neste modelo Stable Diffusion SDXL? Quais são seus pontos fortes e fracos? Vamos descobrir.
A difusão estável 2.1 foi lançada em 7 de dezembro de 2022.
Aqueles que usaram a versão 2.0 ficaram coçando a cabeça sobre como tirar o máximo proveito dela. Enquanto vemos algumas imagens excelentes aqui e ali, a maioria de nós voltou para a versão 1.5 para seus negócios.
O Stable Diffusion 2.0 foi lançado . As melhorias incluem, entre outras coisas, o uso de um codificador de texto maior (que melhora a qualidade da imagem) e o aumento do tamanho padrão da imagem para 768×768 pixels.
VAE é uma atualização parcial dos modelos Stable Diffusion 1.4 ou 1.5 que tornará a renderização de olhos melhor. Explicarei o que é VAE, o que você pode esperar, onde você pode obtê-lo e como instalá-lo e usá-lo.
Duas cabeças? Dedos extras? Aqui está um guia para consertar esses problemas comuns.
Então você gerou algumas imagens de IA de difusão estável. Elas ficaram ótimas, mas não são exatamente o que você quer? Você pode usar alguma personalização. Aqui está uma introdução aos parâmetros básicos de geração.
O ChatGPT pode gerar prompts de alta qualidade para Stable Diffusion? A resposta é sim. Mas você precisará de métodos especiais para provocá-los. Depois que você aprender como fazer isso, os resultados vão te surpreender. Neste artigo, mostrarei como fazer isso passo a passo.
Transformar vídeos em animação nunca foi tão fácil com o Stable Diffusion AI. Você encontrará guias passo a passo para 5 técnicas de vídeo para vídeo neste artigo. O melhor de tudo: você pode executá-los GRATUITAMENTE na sua máquina local!
- Script ControlNet-M2M
- ControleNet img2img
- Extensão Mov2mov
- Extensão de animação SD-CN
- Kit Temporal
- AnimateDiff prompt de viagem
Todos eles usam uma abordagem semelhante de transformar cada quadro de vídeo individualmente com a ajuda do ControlNet .
No final do artigo, examinarei outros métodos de vídeo para vídeo para difusão estável.
Agora você verá um vídeo de amostra de cada método. Abaixo está o vídeo original.
Um problema comum em imagens de IA de difusão estável é que os membros podem não ser gerados corretamente. Às vezes, uma pessoa pode ter um braço a mais e, em outras ocasiões, uma de suas pernas pode estar faltando. Finalmente, obtivemos 4 membros, mas a anatomia não está correta.
Um leitor sugeriu fazer um tutorial especial para remover membros extras. Então aqui vai! Neste post, mostrarei como usar inpainting para consertar essas duas imagens com membros problemáticos.
- 1
- 2