S
skill-evaluator
Evaluate Clawdbot skills for quality, reliability, and publish-readiness using a multi-framework rubric (ISO 25010, OpenSSF, Shneiderman, agent-specific heuristics). Use when asked to review, audit, evaluate, score, or assess a skill before publishing, or when checking skill
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Evaluate Clawdbot skills for quality, reliability, and publish-readiness using a multi-framework rubric (ISO 25010, OpenSSF, Shneiderman, agent-specific heuristics). Use when asked to review, audit, evaluate, score, or assess a skill before publishing, or when checking skill quality. Runs automated structural checks and guides manual assessment across 25 criteria.
How to use
- Przygotuj ścieżkę do umiejętności, którą chcesz ocenić — powinna zawierać plik SKILL.md, skrypty i dokumentację.
- Uruchom automatyczne sprawdzenia poleceniem
python3 scripts/eval-skill.py /ścieżka/do/umiejętności. Narzędzie przeskanuje strukturę katalogów, frontmatter, jakość opisu, składnię skryptów, zależności i zmienne środowiskowe. Dodaj flagę--jsonjeśli chcesz wynik w formacie maszynowym lub--verbosedla pełnych szczegółów. - Przeczytaj dokumentację umiejętności (plik SKILL.md) i przejrzyj kod skryptów, aby zrozumieć funkcjonalność i ocenić jakość implementacji, obsługę błędów oraz testowalność.
- Użyj rubryk z pliku
references/rubric.mddo ręcznej oceny wszystkich 25 kryteriów w 8 kategoriach — każde kryterium ma konkretne opisy dla poziomów od 0 do 4 punktów. - Skopiuj szablon
assets/EVAL-TEMPLATE.mddo katalogu umiejętności jakoEVAL.mdi wypełnij go wynikami automatycznymi, ocenami ręcznymi oraz priorytetami znalezionych problemów (P0 — blokuje publikację, P1 — powinno być naprawione, P2 — ulepszenie opcjonalne).