axiom-ios-vision
Use when implementing ANY computer vision feature - image analysis, object detection, pose detection, person segmentation, subject lifting, hand/body pose tracking.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Use when implementing ANY computer vision feature - image analysis, object detection, pose detection, person segmentation, subject lifting, hand/body pose tracking.
How to use
Zainstaluj skill axiom-ios-vision w swoim środowisku Claude/Copilot, wskazując repozytorium https://github.com/CharlesWiltgen/Axiom/tree/main/.claude-plugin/plugins/axiom/skills/axiom-ios-vision.
Gdy pracujesz nad funkcją widzenia komputerowego na iOS, opisz swoje zadanie (np. "chcę wykryć ręce użytkownika" lub "muszę wyodrębnić osobę z tła"). Router automatycznie określi, czy potrzebujesz wzorców implementacji, referencji API czy diagnostyki.
Dla wzorców implementacji użyj
/skill axiom-vision– otrzymasz konkretne podejścia do segmentacji osób, detekcji pozy rąk/ciała, rozpoznawania tekstu, skanowania kodów QR i dokumentów.Dla szczegółowej referencji API użyj
/skill axiom-vision-ref– dostaniesz dokumentację klas takich jak VNDetectHumanHandPoseRequest, VNDetectHumanBodyPoseRequest, VNRecognizeTextRequest oraz informacje o Visual Intelligence integration.Jeśli napotkasz problemy z wykryciem (np. obiekt nie jest rozpoznawany), użyj
/skill axiom-vision-diagdo diagnostyki i rozwiązywania błędów.Dla najnowszych funkcji iOS 26+ (strukturalna ekstrakcja dokumentów, Visual Intelligence) odwołaj się do sekcji API reference, która zawiera RecognizeDocumentsRequest i wzorce deep linkingu.