Toolverse
All skills

shap

by K-Dense-AI

Model interpretability and explainability using SHAP (SHapley Additive exPlanations). Use this skill when explaining machine learning model predictions, computing feature importance, generating SHAP plots (waterfall, beeswarm, bar, scatter, force, heatmap), debugging models,

Installation

Pick a client and clone the repository into its skills directory.

Installation

Quick info

Category
Data Science
Views
11

About this skill

Model interpretability and explainability using SHAP (SHapley Additive exPlanations). Use this skill when explaining machine learning model predictions, computing feature importance, generating SHAP plots (waterfall, beeswarm, bar, scatter, force, heatmap), debugging models, analyzing model bias or fairness, comparing models, or implementing explainable AI. Works with tree-based models (XGBoost, LightGBM, Random Forest), deep learning (TensorFlow, PyTorch), linear models, and any black-box model.

How to use

  1. Przygotuj wytrenowany model uczenia maszynowego (XGBoost, LightGBM, Random Forest, TensorFlow, PyTorch lub inny typ) oraz dane treningowe lub testowe, na których chcesz obliczyć wartości SHAP.

  2. Wybierz odpowiedni typ eksplainera na podstawie architektury modelu — dla modeli drzewiastych użyj TreeExplainer, dla modeli głębokich użyj DeepExplainer, dla modeli liniowych użyj LinearExplainer, a dla czarnoskrzynkowych użyj KernelExplainer.

  3. Oblicz wartości SHAP dla wybranego zestawu danych, przekazując model i dane do wybranego eksplainera — otrzymasz wartości wskazujące wpływ każdej cechy na predykcję.

  4. Wygeneruj wizualizacje SHAP do analizy wyników — użyj waterfall plot do wyjaśnienia pojedynczej predykcji, beeswarm plot do zobaczenia rozkładu wpływu cech, bar plot do porównania średniego wpływu cech, lub force plot do interaktywnego badania predykcji.

  5. Analizuj wyniki pod kątem bias i sprawiedliwości modelu — sprawdź, czy model nie faworyzuje pewnych grup lub cech w sposób niezamierzony, oraz porównaj wartości SHAP między różnymi segmentami danych.

  6. Implementuj wyjaśnienia w produkcji, integrując obliczenia SHAP z aplikacją — możesz tworzyć dashboardy interpretacyjne, dodawać wyjaśnienia do API modelu lub dokumentować decyzje modelu dla celów audytu i compliance.

Related skills

claude-automation-recommender

by anthropics

Analyze a codebase and recommend Claude Code automations (hooks, subagents, skills, plugins, MCP servers). Use when user asks for automation recommendations, wants to optimize their Claude Code setup, mentions improving Claude Code workflows, asks how to first set up Claude Code

Data Science
1787

notebooklm

by leegonzales

Query Google NotebookLM for source-grounded, citation-backed answers from uploaded documents. Reduces hallucinations through Gemini's document-only responses. Browser automation with library management and persistent authentication.

Data Science
142112

infographic-creation

by antvis

Create beautiful infographics based on the given text content. Use this when users request creating infographics.

Data Science
60199

xlsx

by anthropics

Comprehensive spreadsheet creation, editing, and analysis with support for formulas, formatting, data analysis, and visualization. When Claude needs to work with spreadsheets (.xlsx, .xlsm, .csv, .tsv, etc) for: (1) Creating new spreadsheets with formulas and formatting, (2)

Data Science
40128

prompt-optimizer

by solatis

Optimize system prompts for Claude Code agents using proven prompt engineering patterns. Use when users request prompt improvement, optimization, or refinement for agent workflows, tool instructions, or system behaviors.

Data Science
15109

quant-analyst

by zenobi-us

Expert quantitative analyst specializing in financial modeling, algorithmic trading, and risk analytics. Masters statistical methods, derivatives pricing, and high-frequency trading with focus on mathematical rigor, performance optimization, and profitable strategy development.

Data Science
67217