lazyllm-skill
LazyLLM framework for building multi-agent AI applications. Use when task mentioned LazyLLM or AI program for: (1) Flow orchestration - linear, branching, parallel, loop workflows for complex data pipelines, (2) Model fine-tuning and acceleration - finetuning LLMs with
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
LazyLLM framework for building multi-agent AI applications. Use when task mentioned LazyLLM or AI program for: (1) Flow orchestration - linear, branching, parallel, loop workflows for complex data pipelines, (2) Model fine-tuning and acceleration - finetuning LLMs with LLaMA-Factory/Alpaca-LoRA/Collie and acceleration with vLLM/LMDeploy/LightLLM. Includes comprehensive code examples for all components, (3) RAG systems - knowledge-based QA with document retrieval, vectorization, and generation, (4) Agent development - single/multi-agent systems with tools, memory, planning, and web interfaces.
How to use
Zainstaluj pakiet LazyLLM poleceniem
pip install lazyllm. Jeśli potrzebujesz konkretnych funkcjonalności, użyjlazyllm install embedding chat finetune— wybierz moduły odpowiadające twojemu przypadkowi użycia (embedding dla wektoryzacji, chat dla dialogu, finetune dla dostrajania modeli).Skonfiguruj klucze API dla platform online, które chcesz używać. LazyLLM wspiera źródła takie jak Qwen, OpenAI, GLM, DeepSeek, SenseNova, Kimi i Doubao — ustaw zmienne środowiskowe
LAZYLLM_<PLATFORM>_API_KEYdla każdej platformy, którą planujesz wykorzystać.Wybierz punkt wejścia do modeli. Jeśli chcesz automatycznego wyboru między modelami online a lokalnymi, użyj
lazyllm.AutoModel(). Dla modeli online wywołajlazyllm.OnlineModule(source='qwen', model='qwen-plus')— zastąp źródło i nazwę modelu właściwymi wartościami. Dla modeli lokalnych użyjlazyllm.TrainableModule(model_name).start().Zbuduj przepływ pracy, definiując sekwencję kroków — liniowe, rozgałęziające się, równoległe lub pętlowe — w zależności od logiki twojej aplikacji. LazyLLM obsługuje wszystkie te wzorce orkiestracji dla złożonych potoków danych.
Jeśli potrzebujesz systemu RAG, zintegruj pobieranie dokumentów, wektoryzację i generację odpowiedzi w oparciu o wiedzę. Jeśli budujesz agentów, dodaj narzędzia, pamięć i planowanie — LazyLLM wspiera zarówno systemy jedno- jak i multi-agentowe z interfejsami webowymi.
Odwołaj się do dokumentacji w
references/basic.mdi przykładów kodu zawartych w repozytorium, aby poznać szczegóły każdego komponentu i dostosować konfigurację do swoich potrzeb.