eachlabs-video-generation
Generate new videos from text prompts, images, or reference inputs using EachLabs AI models. Supports text-to-video, image-to-video, transitions, motion control, talking head, and avatar generation. Use when the user wants to create new video content. For editing existing
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Generate new videos from text prompts, images, or reference inputs using EachLabs AI models. Supports text-to-video, image-to-video, transitions, motion control, talking head, and avatar generation. Use when the user wants to create new video content. For editing existing videos, see eachlabs-video-edit.
How to use
Zdobądź klucz API na stronie eachlabs.ai i ustaw zmienną środowiskową EACHLABS_API_KEY, lub przygotuj się do przekazania klucza bezpośrednio w nagłówku X-API-Key.
Wybierz odpowiedni model w zależności od typu zawartości: dla ogólnego zastosowania użyj Pixverse v5.6 (pixverse-v5-6-text-to-video), dla szybkich, kreatywnych wyników — XAI Grok Imagine, dla artystycznych efektów — Kandinsky 5 Pro, dla kinematograficznej jakości — Seedance v1.5 Pro.
Przygotuj zapytanie POST do https://api.eachlabs.ai/v1/prediction z nagłówkami Content-Type: application/json i X-API-Key. W treści JSON podaj model, wersję (0.0.1) oraz input z promptem opisującym pożądaną scenę, rozdzielczością (np. 720p), czasem trwania (w sekundach) i proporcjami (np. 16:9).
Wyślij żądanie i zanotuj zwrócony prediction_id z odpowiedzi API.
Regularnie sprawdzaj status generowania, wysyłając GET do https://api.eachlabs.ai/v1/prediction/{prediction_id} z tym samym kluczem API, aż status zmieni się na "success" lub "failed".
Po pomyślnym zakończeniu (status: success) pobierz URL wygenerowanego wideo z pola output w odpowiedzi API i użyj go do pobrania lub dalszego przetwarzania materiału.