shap
Model interpretability and explainability using SHAP (SHapley Additive exPlanations). Use this skill when explaining machine learning model predictions, computing feature importance, generating SHAP plots (waterfall, beeswarm, bar, scatter, force, heatmap), debugging models,
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Model interpretability and explainability using SHAP (SHapley Additive exPlanations). Use this skill when explaining machine learning model predictions, computing feature importance, generating SHAP plots (waterfall, beeswarm, bar, scatter, force, heatmap), debugging models, analyzing model bias or fairness, comparing models, or implementing explainable AI. Works with tree-based models (XGBoost, LightGBM, Random Forest), deep learning (TensorFlow, PyTorch), linear models, and any black-box model.
How to use
Przygotuj wytrenowany model uczenia maszynowego (XGBoost, LightGBM, Random Forest, TensorFlow, PyTorch lub inny typ) oraz dane treningowe lub testowe, na których chcesz obliczyć wartości SHAP.
Wybierz odpowiedni typ eksplainera na podstawie architektury modelu — dla modeli drzewiastych użyj TreeExplainer, dla modeli głębokich użyj DeepExplainer, dla modeli liniowych użyj LinearExplainer, a dla czarnoskrzynkowych użyj KernelExplainer.
Oblicz wartości SHAP dla wybranego zestawu danych, przekazując model i dane do wybranego eksplainera — otrzymasz wartości wskazujące wpływ każdej cechy na predykcję.
Wygeneruj wizualizacje SHAP do analizy wyników — użyj waterfall plot do wyjaśnienia pojedynczej predykcji, beeswarm plot do zobaczenia rozkładu wpływu cech, bar plot do porównania średniego wpływu cech, lub force plot do interaktywnego badania predykcji.
Analizuj wyniki pod kątem bias i sprawiedliwości modelu — sprawdź, czy model nie faworyzuje pewnych grup lub cech w sposób niezamierzony, oraz porównaj wartości SHAP między różnymi segmentami danych.
Implementuj wyjaśnienia w produkcji, integrując obliczenia SHAP z aplikacją — możesz tworzyć dashboardy interpretacyjne, dodawać wyjaśnienia do API modelu lub dokumentować decyzje modelu dla celów audytu i compliance.