external-model-selection
Choose optimal external AI models for code analysis, bug investigation, and architectural decisions. Use when consulting multiple LLMs via claudish, comparing model perspectives, or investigating complex Go/LSP/transpiler issues. Provides empirically validated model rankings
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Choose optimal external AI models for code analysis, bug investigation, and architectural decisions. Use when consulting multiple LLMs via claudish, comparing model perspectives, or investigating complex Go/LSP/transpiler issues. Provides empirically validated model rankings (91/100 for MiniMax M2, 83/100 for Grok Code Fast) and proven consultation strategies based on real-world testing.
How to use
Zainstaluj umiejętność w swoim środowisku Claude, dodając plik external-model-selection do katalogu skills.
Uruchom umiejętność gdy napotykasz problem wymagający konsultacji z zewnętrznymi modelami AI — na przykład podczas debugowania błędu produkcyjnego, analizy kodu lub planowania zmian architektonicznych.
Umiejętność automatycznie zaproponuje ranking modeli dostosowany do Twojego zadania. Dla szybkiej analizy błędów zacznij od MiniMax M2 (91/100, 3 minuty), dla debugowania śladów i strategii testowania wybierz Grok Code Fast (83/100, 4 minuty), dla przeplanu architektonicznego użyj GPT-5.1 Codex (80/100, 5 minut).
Wybierz model z listy rekomendacji i skonsultuj się z nim poprzez claudish lub inne narzędzie integracyjne, przekazując szczegóły Twojego problemu.
Porównaj odpowiedzi z różnych modeli — każdy ma inną specjalizację. MiniMax M2 skupia się na najprostszych rozwiązaniach, Grok Code Fast na metodologii debugowania, GPT-5.1 na wizji długoterminowej.
Zastosuj wybraną rekomendację w swoim kodzie, bazując na ocenie wydajności modelu dla Twojego konkretnego typu problemu.