huggingface-accelerate
Simplest distributed training API. 4 lines to add distributed support to any PyTorch script. Unified API for DeepSpeed/FSDP/Megatron/DDP. Automatic device placement, mixed precision (FP16/BF16/FP8). Interactive config, single launch command. HuggingFace ecosystem standard.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Simplest distributed training API. 4 lines to add distributed support to any PyTorch script. Unified API for DeepSpeed/FSDP/Megatron/DDP. Automatic device placement, mixed precision (FP16/BF16/FP8). Interactive config, single launch command. HuggingFace ecosystem standard.
How to use
Zainstaluj bibliotekę poleceniem
pip install accelerate. Upewnij się, że masz zainstalowane PyTorch i transformers.Otwórz swój istniejący skrypt treningowy PyTorch. Na początku dodaj import:
from accelerate import Accelerator, a następnie utwórz instancję:accelerator = Accelerator().Zastąp ręczne przenoszenie modelu na GPU linią
model, optimizer, dataloader = accelerator.prepare(model, optimizer, dataloader). Ta funkcja automatycznie obsługuje umieszczanie na właściwych urządzeniach.W pętli treningowej zmień
loss.backward()naaccelerator.backward(loss). To zapewnia prawidłową synchronizację gradientów w środowisku rozproszonym.Uruchom skrypt poleceniem
accelerate launch train.py. Accelerate automatycznie wykryje dostępne GPU i skonfiguruje rozproszone trenowanie bez dodatkowych parametrów.Jeśli potrzebujesz dostosować konfigurację (liczba GPU, typ mieszanej precyzji), uruchom
accelerate configprzed pierwszym treningiem — narzędzie interaktywnie poprowadzi Cię przez ustawienia.