Toolverse
All skills

skill-evaluator

by openclaw

Evaluate Clawdbot skills for quality, reliability, and publish-readiness using a multi-framework rubric (ISO 25010, OpenSSF, Shneiderman, agent-specific heuristics). Use when asked to review, audit, evaluate, score, or assess a skill before publishing, or when checking skill

Installation

Pick a client and clone the repository into its skills directory.

Installation

Quick info

Author
openclaw
Category
Testing
Views
43

About this skill

Evaluate Clawdbot skills for quality, reliability, and publish-readiness using a multi-framework rubric (ISO 25010, OpenSSF, Shneiderman, agent-specific heuristics). Use when asked to review, audit, evaluate, score, or assess a skill before publishing, or when checking skill quality. Runs automated structural checks and guides manual assessment across 25 criteria.

How to use

  1. Przygotuj ścieżkę do umiejętności, którą chcesz ocenić — powinna zawierać plik SKILL.md, skrypty i dokumentację.
  2. Uruchom automatyczne sprawdzenia poleceniem python3 scripts/eval-skill.py /ścieżka/do/umiejętności. Narzędzie przeskanuje strukturę katalogów, frontmatter, jakość opisu, składnię skryptów, zależności i zmienne środowiskowe. Dodaj flagę --json jeśli chcesz wynik w formacie maszynowym lub --verbose dla pełnych szczegółów.
  3. Przeczytaj dokumentację umiejętności (plik SKILL.md) i przejrzyj kod skryptów, aby zrozumieć funkcjonalność i ocenić jakość implementacji, obsługę błędów oraz testowalność.
  4. Użyj rubryk z pliku references/rubric.md do ręcznej oceny wszystkich 25 kryteriów w 8 kategoriach — każde kryterium ma konkretne opisy dla poziomów od 0 do 4 punktów.
  5. Skopiuj szablon assets/EVAL-TEMPLATE.md do katalogu umiejętności jako EVAL.md i wypełnij go wynikami automatycznymi, ocenami ręcznymi oraz priorytetami znalezionych problemów (P0 — blokuje publikację, P1 — powinno być naprawione, P2 — ulepszenie opcjonalne).

Related skills