コンテンツにスキップ

multi-llm/

Claude Code から Claude 以外の LLM を呼んで使い分けるテクニック。

主なパターン

  1. MCP server 経由mcp-server-openai, gemini-mcp などを .mcp.json に追加
  2. subagent から CLI 直叩きaider, codex, gemini-cli を Bash 経由で呼ぶ
  3. subagent から SDK 直叩き — Python/TS スクリプトで OpenAI/Gemini SDK を叩く
  4. GitHub Actions 連携 — 重いタスクは別ランナーで Claude 以外を走らせる

用途別の推し

用途 推しモデル 理由
巨大コードベース要約 Gemini 2.x 長コンテキスト
安価なルーチン Haiku / GPT-5-mini / DeepSeek コスト
セカンドオピニオン Opus + GPT-5 を並列 多様性
ローカル機密 Ollama + Qwen3 データ非送信

TODO

  • 01-mcp-openai-gemini.md — 設定手順と最小サンプル
  • 02-cli-tool-subagent.md — aider/codex を subagent で叩くパターン
  • 03-cost-routing.md — タスクごとのモデルルーティング戦略
  • 04-second-opinion.md — レビュー多様性のための並列実行