Toolverse
All skills

lazyllm-skill

by LazyAGI

LazyLLM framework for building multi-agent AI applications. Use when task mentioned LazyLLM or AI program for: (1) Flow orchestration - linear, branching, parallel, loop workflows for complex data pipelines, (2) Model fine-tuning and acceleration - finetuning LLMs with

Installation

Pick a client and clone the repository into its skills directory.

Installation

Quick info

Author
LazyAGI
Category
Testing
Views
2

About this skill

LazyLLM framework for building multi-agent AI applications. Use when task mentioned LazyLLM or AI program for: (1) Flow orchestration - linear, branching, parallel, loop workflows for complex data pipelines, (2) Model fine-tuning and acceleration - finetuning LLMs with LLaMA-Factory/Alpaca-LoRA/Collie and acceleration with vLLM/LMDeploy/LightLLM. Includes comprehensive code examples for all components, (3) RAG systems - knowledge-based QA with document retrieval, vectorization, and generation, (4) Agent development - single/multi-agent systems with tools, memory, planning, and web interfaces.

How to use

  1. Zainstaluj pakiet LazyLLM poleceniem pip install lazyllm. Jeśli potrzebujesz konkretnych funkcjonalności, użyj lazyllm install embedding chat finetune — wybierz moduły odpowiadające twojemu przypadkowi użycia (embedding dla wektoryzacji, chat dla dialogu, finetune dla dostrajania modeli).

  2. Skonfiguruj klucze API dla platform online, które chcesz używać. LazyLLM wspiera źródła takie jak Qwen, OpenAI, GLM, DeepSeek, SenseNova, Kimi i Doubao — ustaw zmienne środowiskowe LAZYLLM_<PLATFORM>_API_KEY dla każdej platformy, którą planujesz wykorzystać.

  3. Wybierz punkt wejścia do modeli. Jeśli chcesz automatycznego wyboru między modelami online a lokalnymi, użyj lazyllm.AutoModel(). Dla modeli online wywołaj lazyllm.OnlineModule(source='qwen', model='qwen-plus') — zastąp źródło i nazwę modelu właściwymi wartościami. Dla modeli lokalnych użyj lazyllm.TrainableModule(model_name).start().

  4. Zbuduj przepływ pracy, definiując sekwencję kroków — liniowe, rozgałęziające się, równoległe lub pętlowe — w zależności od logiki twojej aplikacji. LazyLLM obsługuje wszystkie te wzorce orkiestracji dla złożonych potoków danych.

  5. Jeśli potrzebujesz systemu RAG, zintegruj pobieranie dokumentów, wektoryzację i generację odpowiedzi w oparciu o wiedzę. Jeśli budujesz agentów, dodaj narzędzia, pamięć i planowanie — LazyLLM wspiera zarówno systemy jedno- jak i multi-agentowe z interfejsami webowymi.

  6. Odwołaj się do dokumentacji w references/basic.md i przykładów kodu zawartych w repozytorium, aby poznać szczegóły każdego komponentu i dostosować konfigurację do swoich potrzeb.

Related skills