processing-api-batches
Optimize bulk API requests with batching, throttling, and parallel execution.\nUse when processing bulk API operations efficiently.\nTrigger with phrases like \
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Optimize bulk API requests with batching, throttling, and parallel execution.\nUse when processing bulk API operations efficiently.\nTrigger with phrases like \
How to use
Zainstaluj skill processing-api-batches w swoim środowisku Claude Code, Codex lub OpenClaw. Upewnij się, że Twoja infrastruktura spełnia wymagania: framework webowy obsługujący duże ciała żądań (co najmniej 10MB), baza danych z wsparciem dla operacji zbiorczych oraz system kolejki asynchronicznej (Bull/BullMQ dla Node.js, Celery dla Pythona lub SQS).
Przeanalizuj istniejące endpointy API, aby zidentyfikować operacje, które są wywoływane wielokrotnie w pętlach przez klientów. Są to główne kandydaci do konwersji na warianty batchowe. Użyj polecenia Grep i Read do przeszukania kodu.
Zaprojektuj format żądania batchowego: endpoint POST /batch powinien akceptować tablicę operacji w ciele żądania. Każda operacja zawiera metodę HTTP, ścieżkę, ciało żądania oraz opcjonalny identyfikator klienta do korelacji wyników, np. {operations: [{method: "POST", path: "/users", body: {...}, id: "op1"}]}.
Dla małych batchów (poniżej 100 elementów) zaimplementuj synchroniczne przetwarzanie: zwaliduj wszystkie elementy, wykonaj je w transakcji bazodanowej i zwróć wyniki dla każdego elementu z statusem powodzenia lub błędu.
Dla dużych batchów (powyżej 100 elementów) użyj systemu kolejki do asynchronicznego przetwarzania. Zwróć identyfikator zadania klientowi, który może następnie odpytywać endpoint statusu, aby śledzić postęp za pomocą magazynu Redis.
Wyzwól skill frazami takimi jak "process bulk requests", "batch API calls" lub "handle batch operations" w kontekście pracy z dużymi zbiorami danych API.