evaluating-machine-learning-models
Build this skill allows AI assistant to evaluate machine learning models using a comprehensive suite of metrics. it should be used when the user requests model performance analysis, validation, or testing. AI assistant can use this skill to assess model accuracy, p... Use when
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Build this skill allows AI assistant to evaluate machine learning models using a comprehensive suite of metrics. it should be used when the user requests model performance analysis, validation, or testing. AI assistant can use this skill to assess model accuracy, p... Use when appropriate context detected. Trigger with relevant phrases based on skill purpose.
How to use
Zainstaluj skill w swoim środowisku Claude Code, Codex lub OpenClaw, upewniając się, że masz dostęp do narzędzi Read, Write, Edit, Grep, Glob i Bash.
Przygotuj model do oceny — upewnij się, że model jest dostępny w Twoim projekcie lub repozytorium, wraz z danymi testowymi lub walidacyjnymi.
Poproś Claude o ocenę modelu, używając naturalnego języka, np. "Oceń dokładność mojego modelu klasyfikacji obrazów" lub "Porównaj wydajność tych dwóch modeli".
Skill automatycznie analizuje Twoje żądanie, identyfikuje model do oceny i wybiera odpowiednie metryki na podstawie kontekstu.
Claude wykonuje ocenę za pomocą komendy
/eval-modelz pakietu model-evaluation-suite, generując metryki takie jak dokładność, precyzję, czułość i F1-score.Przejrzyj wyniki — Claude prezentuje wygenerowane metryki, wskazuje kluczowe wskaźniki wydajności i sugeruje obszary do optymalizacji modelu lub podjęcia decyzji o wdrożeniu.