axolotl
Expert guidance for fine-tuning LLMs with Axolotl - YAML configs, 100+ models, LoRA/QLoRA, DPO/KTO/ORPO/GRPO, multimodal support
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Expert guidance for fine-tuning LLMs with Axolotl - YAML configs, 100+ models, LoRA/QLoRA, DPO/KTO/ORPO/GRPO, multimodal support
How to use
Zainstaluj wymagane zależności: axolotl, torch, transformers, datasets, peft, accelerate oraz deepspeed. Upewnij się, że masz dostęp do GPU i skonfigurowanego środowiska PyTorch.
Przygotuj konfigurację YAML dla swojego zadania dostrajania. Skill pomaga w definiowaniu parametrów modelu, rozmiaru batcha, algorytmu optymalizacji (LoRA, QLoRA, DPO) oraz strategii rozproszonego treningu.
Jeśli planujesz trenować na wielu GPU, skonfiguruj FSDP (Fully Sharded Data Parallel) w pliku YAML, ustawiając fsdp_version, offload_params i odpowiednią politykę zawijania warstw transformera.
Przed uruchomieniem pełnego treningu uruchom NCCL Tests, aby zweryfikować szybkość transferu danych między GPU i zidentyfikować wąskie gardła w komunikacji sieciowej.
Dostosuj context_parallel_size w zależności od liczby dostępnych GPU – wartość musi być dzielnikiem całkowitej liczby GPU. Parametr wpływa na rozmiar globalnego batcha i sposób przetwarzania sekwencji.
Włącz save_compressed: true w konfiguracji, aby zmniejszyć zajętość dysku o około 40% przy zachowaniu kompatybilności z vLLM do wnioskowania.