inference-sh
Run 150+ AI apps via inference.sh CLI - image generation, video creation, LLMs, search, 3D, Twitter automation.\nModels: FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter, and many more.\nUse when running AI apps, generating images/videos, calling
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Run 150+ AI apps via inference.sh CLI - image generation, video creation, LLMs, search, 3D, Twitter automation.\nModels: FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter, and many more.\nUse when running AI apps, generating images/videos, calling LLMs, web search, or automating Twitter.\nTriggers: inference.sh, infsh, ai model, run ai, serverless ai, ai api, flux, veo, claude api,\nimage generation, video generation, openrouter, tavily, exa search, twitter api, grok
How to use
- Zainstaluj CLI inference.sh, uruchamiając polecenie curl -fsSL https://cli.inference.sh | sh, a następnie zaloguj się za pomocą infsh login, podając swoje dane uwierzytelniające.
- Wyświetl dostępne aplikacje, wpisując infsh app list, lub wyszukaj konkretny model, na przykład infsh app list --search "flux" dla generatorów obrazów.
- Przejrzyj szczegóły wybranej aplikacji, wpisując infsh app get wraz z nazwą aplikacji, na przykład infsh app get google/veo-3-1-fast, aby zobaczyć wymagane parametry wejściowe.
- Wygeneruj przykładowy plik wejściowy za pomocą infsh app sample nazwa-aplikacji --save input.json, a następnie edytuj go, aby dostosować prompt lub parametry do swoich potrzeb.
- Uruchom aplikację, wpisując infsh app run nazwa-aplikacji --input input.json — wynik pojawi się w terminalu po zakończeniu przetwarzania.
- Aby uruchomić aplikację bez czekania na wynik, dodaj flagę --no-wait, a następnie sprawdź status zadania za pomocą infsh task get identyfikator-zadania.