daggr
Build DAG-based AI pipelines connecting Gradio Spaces, HuggingFace models, and Python functions into visual workflows. Use when asked to create a workflow, build a pipeline, connect AI models, chain Gradio Spaces, create a daggr app, build multi-step AI applications, or
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Build DAG-based AI pipelines connecting Gradio Spaces, HuggingFace models, and Python functions into visual workflows. Use when asked to create a workflow, build a pipeline, connect AI models, chain Gradio Spaces, create a daggr app, build multi-step AI applications, or orchestrate ML models. Triggers on: \
How to use
Zainstaluj daggr wraz z Gradio, importując bibliotekę do swojego projektu Pythona:
from daggr import GradioNode, FnNode, InferenceNode, Graph, ItemListorazimport gradio as gr.Zdefiniuj węzły swojego pipeline'u. Dla każdej przestrzeni Gradio utwórz
GradioNodez adresem przestrzeni (np. "owner/space-name"), nazwą endpointu API (api_name="/endpoint"), mapą wejść (UI inputs, połączenia z innymi węzłami lub wartości stałe) i mapą wyjść. Opcjonalnie dodaj funkcjępostprocessdo transformacji odpowiedzi.Jeśli potrzebujesz znaleźć odpowiednią przestrzeń Gradio, użyj API wyszukiwania semantycznego HuggingFace — opisz co chcesz (np. "generate music") lub przeglądaj kategorie (image-generation, text-to-speech itp.).
Utwórz graf, przekazując listę węzłów do konstruktora
Graph(name="Nazwa", nodes=[node1, node2, ...]). Węzły będą automatycznie połączone na podstawie referencji portów wyjściowych w definicjach wejść.Uruchom pipeline wywołując
graph.launch()— spowoduje to uruchomienie serwera webowego z interfejsem wizualizującym DAG, gdzie będziesz mógł testować przepływ danych między węzłami.Interaktywnie testuj pipeline poprzez interfejs webowy, obserwując jak dane przepływają przez poszczególne kroki — każdy węzeł przetwarza dane zgodnie z definicją i przekazuje wynik do następnego węzła w łańcuchu.