pytorch-lightning
High-level PyTorch framework with Trainer class, automatic distributed training (DDP/FSDP/DeepSpeed), callbacks system, and minimal boilerplate. Scales from laptop to supercomputer with same code. Use when you want clean training loops with built-in best practices.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
High-level PyTorch framework with Trainer class, automatic distributed training (DDP/FSDP/DeepSpeed), callbacks system, and minimal boilerplate. Scales from laptop to supercomputer with same code. Use when you want clean training loops with built-in best practices.
How to use
Zainstaluj bibliotekę poleceniem
pip install lightning. Upewnij się, że masz zainstalowane PyTorch i transformers.Zdefiniuj swój model jako klasę dziedziczącą z
L.LightningModule. W konstruktorze utwórz architekturę sieci neuronowej (np. sekwencję warstw liniowych). Zaimplementuj metodętraining_step, która przyjmuje batch danych, oblicza predykcję, stratę i loguje wyniki za pomocąself.log(). Dodaj metodęconfigure_optimizers, która zwraca optymalizator (np. Adam).Przygotuj dane treningowe, opakowując je w
DataLoaderz odpowiednim rozmiarem batcha (np. 32).Utwórz instancję
L.Trainer, określając liczbę epok (max_epochs), typ akceleratora (accelerator='gpu') i liczbę urządzeń (devices=2). Trainer automatycznie obsługuje rozproszone trenowanie i optymalizacje.Wywołaj
trainer.fit(model, train_loader), przekazując instancję modelu i dataloader. Trainer zajmie się całym procesem treningowym, logowaniem do TensorBoard i zarządzaniem zasobami GPU/TPU.Monitoruj postęp trenowania w TensorBoard lub w logach konsoli. Możesz dodać callback'i do Trainera, aby dostosować zachowanie (np. early stopping, checkpoint'owanie).