model-evaluation-metrics
Build model evaluation metrics operations. Auto-activating skill for ML Training.\nTriggers on: model evaluation metrics, model evaluation metrics\nPart of the ML Training skill category. Use when working with model evaluation metrics functionality. Trigger with phrases like \
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Build model evaluation metrics operations. Auto-activating skill for ML Training.\nTriggers on: model evaluation metrics, model evaluation metrics\nPart of the ML Training skill category. Use when working with model evaluation metrics functionality. Trigger with phrases like \
How to use
Upewnij się, że masz skonfigurowane środowisko deweloperskie z dostępem do narzędzi Python i pip, które są wymagane do pracy z umiejętnością.
Zainstaluj umiejętność w swoim środowisku Claude Code — dodaj ją do konfiguracji ML Training skill category, aby była dostępna podczas sesji pracy.
Wyzwól umiejętność, wspominając w swoim zapytaniu frazy związane z metrykami ewaluacji, na przykład: "Pomóż mi z model evaluation metrics" lub "Potrzebuję metryki do oceny mojego modelu".
Umiejętność automatycznie dostarczy przewodnik krok po kroku oraz wygeneruje odpowiednie konfiguracje i kod dla Twojego zadania.
Przejrzyj wygenerowany kod i rekomendacje — umiejętność zwraca gotowe do produkcji rozwiązania oraz wyniki walidacji zgodnie ze standardami branżowymi.
W przypadku błędów (np. brakujące pola konfiguracji, brak zainstalowanego narzędzia) sprawdź dokumentację wymaganych parametrów lub zainstaluj brakujące zależności za pomocą pip.