comfy-cli
Install, manage, and run ComfyUI instances. Use when setting up ComfyUI, launching servers, installing/updating/debugging custom nodes, downloading models from CivitAI/HuggingFace, managing workspaces, running API workflows, or troubleshooting node conflicts with bisect.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Install, manage, and run ComfyUI instances. Use when setting up ComfyUI, launching servers, installing/updating/debugging custom nodes, downloading models from CivitAI/HuggingFace, managing workspaces, running API workflows, or troubleshooting node conflicts with bisect.
How to use
Zainstaluj comfy-cli za pomocą menedżera pakietów uv:
uv pip install comfy-cli. Upewnij się, że masz zainstalowany Python i dostęp do wiersza poleceń.Zainstaluj ComfyUI, wybierając odpowiednią konfigurację GPU. Uruchom
comfy installdla instalacji interaktywnej z automatycznym wykryciem GPU, lub użyj flag specyficznych:comfy install --nvidiadla NVIDIA,comfy install --m-seriesdla Apple Silicon,comfy install --cpudla procesora. Możesz też określić wersję CUDA:comfy install --cuda 12.6.Uruchom serwer ComfyUI poleceniem
comfy launch. Serwer uruchomi się w pierwszym planie i będzie dostępny w przeglądarce. Aby uruchomić w tle, użyjcomfy launch --background, a zatrzymaj go poleceniemcomfy stop.Instaluj niestandardowe węzły według potrzeb, na przykład
comfy node install ComfyUI-Impact-Pack. Węzły rozszerzają funkcjonalność ComfyUI o dodatkowe możliwości przetwarzania.Pobieraj modele z publicznych repozytoriów za pomocą
comfy model download --url "https://civitai.com/api/download/models/12345". Zastąp URL rzeczywistym linkiem do modelu z CivitAI lub HuggingFace.Jeśli napotkasz konflikty między węzłami, użyj narzędzia bisect do debugowania. Uruchom workflowy API bezpośrednio z CLI, przekazując argumenty do ComfyUI:
comfy launch -- --listen 0.0.0.0.