Toolverse
All skills

at-dispatch-v2

by pytorch

Convert PyTorch AT_DISPATCH macros to AT_DISPATCH_V2 format in ATen C++ code. Use when porting AT_DISPATCH_ALL_TYPES_AND*, AT_DISPATCH_FLOATING_TYPES*, or other dispatch macros to the new v2 API. For ATen kernel files, CUDA kernels, and native operator implementations.

Installation

Pick a client and clone the repository into its skills directory.

Installation

Quick info

Author
pytorch
Category
Data Science
Views
87

About this skill

Convert PyTorch AT_DISPATCH macros to AT_DISPATCH_V2 format in ATen C++ code. Use when porting AT_DISPATCH_ALL_TYPES_AND*, AT_DISPATCH_FLOATING_TYPES*, or other dispatch macros to the new v2 API. For ATen kernel files, CUDA kernels, and native operator implementations.

How to use

  1. Zainstaluj skill w swoim środowisku Claude/Copilot, wskazując repozytorium PyTorch jako źródło.

  2. Otwórz plik C++ z kodów ATen zawierający stare makra AT_DISPATCH_ALL_TYPES_AND*, AT_DISPATCH_FLOATING_TYPES* lub inne warianty AT_DISPATCH_*.

  3. Dodaj nagłówek Dispatch_v2.h obok istniejącego include Dispatch.h na górze pliku. Skill może zasugerować to automatycznie lub możesz dodać ręcznie: #include <ATen/Dispatch_v2.h>.

  4. Wskaż skill na konkretne makro AT_DISPATCH_* do konwersji. Skill przeanalizuje strukturę: identyfikuje typ skalara, nazwę kernela, ciało lambdy i listę typów.

  5. Skill przepisuje makro na format AT_DISPATCH_V2: przesuwa scalar_type i name na początek, opakowuje lambdę w AT_WRAP(), rozszerza grupy typów za pomocą AT_EXPAND(AT_ALL_TYPES) i dodaje dodatkowe typy (kHalf, kBFloat16) na końcu.

  6. Przejrzyj wygenerowany kod, upewnij się że logika lambdy pozostała niezmieniona, i zatwierdź zmianę w pliku.

Related skills