Toolverse
All skills

external-model-selection

by MadAppGang

Choose optimal external AI models for code analysis, bug investigation, and architectural decisions. Use when consulting multiple LLMs via claudish, comparing model perspectives, or investigating complex Go/LSP/transpiler issues. Provides empirically validated model rankings

Installation

Pick a client and clone the repository into its skills directory.

Installation

Quick info

Category
Testing
Views
17

About this skill

Choose optimal external AI models for code analysis, bug investigation, and architectural decisions. Use when consulting multiple LLMs via claudish, comparing model perspectives, or investigating complex Go/LSP/transpiler issues. Provides empirically validated model rankings (91/100 for MiniMax M2, 83/100 for Grok Code Fast) and proven consultation strategies based on real-world testing.

How to use

  1. Zainstaluj umiejętność w swoim środowisku Claude, dodając plik external-model-selection do katalogu skills.

  2. Uruchom umiejętność gdy napotykasz problem wymagający konsultacji z zewnętrznymi modelami AI — na przykład podczas debugowania błędu produkcyjnego, analizy kodu lub planowania zmian architektonicznych.

  3. Umiejętność automatycznie zaproponuje ranking modeli dostosowany do Twojego zadania. Dla szybkiej analizy błędów zacznij od MiniMax M2 (91/100, 3 minuty), dla debugowania śladów i strategii testowania wybierz Grok Code Fast (83/100, 4 minuty), dla przeplanu architektonicznego użyj GPT-5.1 Codex (80/100, 5 minut).

  4. Wybierz model z listy rekomendacji i skonsultuj się z nim poprzez claudish lub inne narzędzie integracyjne, przekazując szczegóły Twojego problemu.

  5. Porównaj odpowiedzi z różnych modeli — każdy ma inną specjalizację. MiniMax M2 skupia się na najprostszych rozwiązaniach, Grok Code Fast na metodologii debugowania, GPT-5.1 na wizji długoterminowej.

  6. Zastosuj wybraną rekomendację w swoim kodzie, bazując na ocenie wydajności modelu dla Twojego konkretnego typu problemu.

Related skills

langchain

by zechenzhangAGI

Framework for building LLM-powered applications with agents, chains, and RAG. Supports multiple providers (OpenAI, Anthropic, Google), 500+ integrations, ReAct agents, tool calling, memory management, and vector store retrieval. Use for building chatbots, question-answering

Testing
21123

differential-review

by trailofbits

Performs security-focused differential review of code changes (PRs, commits, diffs). Adapts analysis depth to codebase size, uses git history for context, calculates blast radius, checks test coverage, and generates comprehensive markdown reports. Automatically detects and

Testing
2510

testing-workflow

by amo-tech-ai

Comprehensive testing workflow for E2E, integration, and unit tests. Use when testing applications layer-by-layer, validating user journeys, or running test suites.

Testing
1076

code-reviewer

by google-gemini

Use this skill to review code. It supports both local changes (staged or working tree) and remote Pull Requests (by ID or URL). It focuses on correctness, maintainability, and adherence to project standards.

Testing
1248

crypto-research

by stevengonsalvez

Comprehensive cryptocurrency market research and analysis using specialized AI agents. Analyzes market data, price trends, news sentiment, technical indicators, macro correlations, and investment opportunities. Use when researching cryptocurrencies, analyzing crypto markets,

Testing
14118

lean4-theorem-proving

by cameronfreer

Use when developing Lean 4 proofs, facing type class synthesis errors, managing sorries/axioms, or searching mathlib - provides build-first workflow, instance management patterns (haveI/letI), and domain-specific tactics

Testing
9108