long-context
Extend context windows of transformer models using RoPE, YaRN, ALiBi, and position interpolation techniques. Use when processing long documents (32k-128k+ tokens), extending pre-trained models beyond original context limits, or implementing efficient positional encodings. Covers
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Extend context windows of transformer models using RoPE, YaRN, ALiBi, and position interpolation techniques. Use when processing long documents (32k-128k+ tokens), extending pre-trained models beyond original context limits, or implementing efficient positional encodings. Covers rotary embeddings, attention biases, interpolation methods, and extrapolation strategies for LLMs.
How to use
Zainstaluj wymagane biblioteki: pip install transformers torch. Dla dodatkowych możliwości dodaj einops (operacje tensorowe) oraz rotary-embedding-torch (samodzielna implementacja RoPE). Opcjonalnie zainstaluj flash-attn dla lepszej wydajności: pip install flash-attn --no-build-isolation.
Zaimportuj moduł RotaryEmbedding z biblioteki transformers lub użyj samodzielnej implementacji. Moduł ten obsługuje rotacyjne osadzenia pozycji, które są kluczowe do rozszerzenia kontekstu.
Skonfiguruj model transformera, aby używał wybranej techniki: RoPE dla rotacyjnych osadzeń, YaRN dla zaawansowanej interpolacji, ALiBi dla odchyleń uwagi liniowej lub Position Interpolation dla elastycznego skalowania. Każda technika ma inne zastosowania w zależności od Twoich potrzeb.
Załaduj pretrenowany model (np. LLaMA, Mistral) i zastosuj wybraną metodę rozszerzenia kontekstu. Transformers automatycznie wspiera RoPE i YaRN dla kompatybilnych modeli.
Przetestuj model na długich dokumentach (32k, 64k lub 128k+ tokenów) aby sprawdzić, czy rozszerzenie kontekstu działa poprawnie. Monitoruj wydajność i zużycie pamięci.
Jeśli chcesz dostroić model dla jeszcze dłuższych sekwencji, użyj Position Interpolation lub YaRN z minimalnym nakładem obliczeniowym. Dokumentacja zawiera referencje do artykułów naukowych (RoFormer, YaRN, ALiBi) z szczegółowymi algorytmami.