stable-diffusion-image-generation
State-of-the-art text-to-image generation with Stable Diffusion models via HuggingFace Diffusers. Use when generating images from text prompts, performing image-to-image translation, inpainting, or building custom diffusion pipelines.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
State-of-the-art text-to-image generation with Stable Diffusion models via HuggingFace Diffusers. Use when generating images from text prompts, performing image-to-image translation, inpainting, or building custom diffusion pipelines.
How to use
Zainstaluj wymagane biblioteki: pip install diffusers transformers accelerate torch. Opcjonalnie dodaj xformers dla bardziej wydajnego wykorzystania pamięci GPU.
Zaimportuj DiffusionPipeline z biblioteki diffusers i załaduj wybrany model Stable Diffusion – pipeline automatycznie wykryje typ modelu i pobierze wagi.
Przygotuj prompt tekstowy opisujący obraz, który chcesz wygenerować. Prompt powinien zawierać szczegóły dotyczące stylu, oświetlenia i kompozycji.
Wywołaj pipeline z promptem jako argumentem, aby wygenerować obraz. Możesz kontrolować liczbę kroków inferencji, skalę guidance i seed dla powtarzalności.
Dla zaawansowanych zastosowań użyj image-to-image do transformacji istniejących zdjęć, inpainting do wypełniania zamalowanych regionów, lub ControlNet do dodania warunkowania przestrzennego (krawędzie, pozy, głębia).
Zapisz wygenerowany obraz w wybranym formacie i zintegruj umiejętność z agentami Claude lub Copilot do automatyzacji przepływów tworzenia treści wizualnych.