はじめに
ども!龍ちゃんです。技術調査にAIを活用していますか?
「○○について調べて」とClaude Codeに頼むと、WebSearchでサッと検索して「こういう感じです」と返ってくる。便利なんですが、こんな経験ありませんか?
- クオリティがまばら: 日によって深さが違う。「今日は浅いな…」
- 出典が不明: 「この情報、どこから持ってきたの?」
- フォーマットがバラバラ: 後から整理しようにも形式が統一されていない
- 保存先もバラバラ: どこに保存されたか分からない、または保存されない
この問題を解決するために、僕が作った /research コマンドを紹介します。
この記事で紹介すること
/researchコマンドの特徴と使い方- 実際の調査フローのデモ
- 出力例と活用シーン
関連記事
この記事は、Claude Code カスタマイズシリーズの一部です:
| 記事 | 内容 |
|---|---|
| Claude Code Skillsの使い方 | Skills の基本と汎用テンプレート |
| Claude Code Hooksガイド | Hooks による自動化・カスタマイズ |
| Slash Commandsで確実なワークフロー構築 | Skills vs Commands の使い分け |
| この記事 | /research コマンドの詳細紹介 |
/research コマンドとは
注意:
/researchはカスタムスラッシュコマンドです。Claude Code の標準機能ではなく、.claude/commands/research.mdに配置して使う拡張機能の一例として紹介しています。動作確認環境: 2026年1月時点の Claude Code
/research は、技術調査を構造化されたワークフローで実行するカスタムコマンドです。
/research [調査トピック]
普通の「調べて」との違い
| 観点 | 普通の調査依頼 | /research コマンド |
|---|---|---|
| 調査深度 | Claude任せ | ユーザーが選択 |
| 情報源の信頼性 | 特に意識しない | 基準を明示して評価 |
| 出力フォーマット | その時々で異なる | 統一テンプレート |
| 結果の保存 | なし | docs/research/ に自動保存 |
| 出典の明記 | 曖昧 | 全情報に出典URL付き |
主な特徴
1. 調査スコープの事前確認
コマンドを実行すると、まず調査のスコープを確認されます。
調査深度の選択:
| 深度 | 説明 | 用途 |
|---|---|---|
| クイック概要 | 主要ポイントの素早い把握 | 概念理解、導入検討 |
| 標準調査 | バランスの取れた情報収集 | 一般的な技術調査 |
| ディープダイブ | 網羅的で詳細な調査 | 本番導入前、ブログ執筆 |
情報源の信頼性要件:
| レベル | 対象ソース | 用途 |
|---|---|---|
| 高(公式のみ) | 公式ドキュメント、査読済みソース | 正確性が最重要な場面 |
| 中(推奨) | 信頼性の高いブログ、著名なコミュニティ | 一般的な調査 |
| 低(幅広く) | 一般的なWebソースも含む | 多角的な視点が欲しい時 |
これにより、調査の粒度をコントロールできます。
2. CRAAP Test による情報源評価
収集した情報は、情報リテラシーの標準的なフレームワークである CRAAP Test で評価されます。
| 基準 | 説明 | チェックポイント |
|---|---|---|
| Currency (最新性) | 情報の鮮度 | いつ公開・更新されたか? |
| Relevance (関連性) | 調査課題との適合性 | 求める情報に合っているか? |
| Authority (権威性) | 著者・組織の信頼性 | 公式か?専門家か?実績は? |
| Accuracy (正確性) | 情報の検証可能性 | 他ソースで確認できるか? |
| Purpose (目的) | 潜在的なバイアス | 商業目的?教育目的?中立か? |
「この情報、信頼できるの?」という疑問に答えられる調査結果が得られます。
3. 4つの調査パターン
調査目的に応じて、4つのパターンを使い分けます。
パターンA: 技術実装調査
目的: 具体的な実装方法を知りたい
/research React Server Components の実装方法
- 公式ドキュメントのコード例
- GitHub リポジトリの実装パターン
- よくあるエラーと解決策
パターンB: 比較・選定調査
目的: 複数の選択肢を比較したい
/research Zustand vs Jotai 状態管理ライブラリ比較
- 各選択肢の特徴・制限
- パフォーマンス比較
- コミュニティの評価・採用状況
パターンC: トラブルシューティング
目的: 問題を解決したい
/research Next.js hydration mismatch エラー
- エラーメッセージの意味
- Stack Overflow, GitHub Issues
- 公式のトラブルシューティングガイド
パターンD: 最新動向調査
目的: 技術の最新情報を把握したい
/research TypeScript 5.x 新機能
- リリースノート・CHANGELOG
- 公式ブログ・アナウンス
- ロードマップ・RFC
4. 構造化された出力テンプレート
調査結果は、以下の統一フォーマットで docs/research/ に保存されます。
docs/research/2026-01-19-react-server-components.md
出力構造:
# 調査: {トピック}
## メタデータ
- 調査日、調査者、信頼性レベル、調査深度
## 調査課題
調査した内容の明確な記述
## 概要
2-3文のエグゼクティブサマリー
## 調査結果
### 主要な発見 1-3
根拠となる証拠を含む説明
## 実践的な知見
### コード例・設定例
### ベストプラクティス
### 注意点・落とし穴
## 情報源
| 情報源 | 種類 | 信頼性 | URL |
## 推奨事項
次のステップまたはさらなる調査領域
実際の使用例
使用例: Claude Code 拡張機能の調査
/research Claude Code Hooks Skills Commands の使い分け
Step 1: スコープ確認
コマンド実行後、以下の選択肢が表示されます。
調査の深さを選択してください:
- クイック概要
- 標準調査
- ディープダイブ ← 選択
情報源の信頼性要件を選択してください:
- 高(公式のみ) ← 選択
- 中(推奨)
- 低(幅広く)
Step 2: 調査実行
選択に基づいて、以下の順序で調査が進みます。
- 公式ドキュメントの検索・取得
- 情報の整理・比較
- 実践的な知見の抽出
Step 3: 結果の保存
調査結果が docs/research/2026-01-06-claude-code-hooks-skills-agents-commands.md に保存されます。
出力例(一部抜粋)
実際に生成された調査結果の一部を紹介します。
# 調査: Claude Code Hooks/Skills/Agents/Commands の使い分け
## メタデータ
- **調査日**: 2026-01-06
- **調査者**: Claude
- **信頼性レベル**: 高(公式のみ)
- **調査深度**: ディープダイブ
## 調査課題
Claude Codeの5つの主要拡張機能の概念、特徴、使い分け基準を明確にする。
## 概要
Claude Codeには複数の拡張機能があり、それぞれ異なる目的と使用場面を持つ。
主な違いは「誰が呼び出すか」と「何を制御するか」にある。
## 調査結果
### 呼び出し方式による分類
| 呼び出し方式 | 機能 | 説明 |
|------------|-----|------|
| ユーザー明示的 | Slash Commands | `/command`で手動実行 |
| モデル自動判定 | Skills, Subagents | リクエスト内容から自動適用 |
| イベント駆動 | Hooks | ライフサイクルイベントで自動実行 |
...
## 情報源
| 情報源 | 種類 | 信頼性 | URL |
|--------|------|--------|-----|
| Claude Code Hooks Reference | 公式ドキュメント | 高 | https://code.claude.com/docs/en/hooks |
| Claude Code Skills | 公式ドキュメント | 高 | https://code.claude.com/docs/en/skills |
ポイント:
- メタデータで調査の前提条件が明確
- 情報源テーブルで出典が一目瞭然
- 信頼性評価付きで情報の質が判断できる
活用シーン
シーン1: ブログ執筆の事前調査
/research Streamlit Azure Container Apps デプロイ方法
ブログを書く前に、最新の公式情報を構造化して収集。そのまま記事の参考資料として使える。
シーン2: 技術選定の比較資料
/research uv vs Poetry vs pip-tools パッケージ管理ツール比較
チームへの提案資料として、客観的な比較情報を整理。
シーン3: トラブルシューティングの記録
/research GitHub Actions self-hosted runner セキュリティ設定
調査結果を保存しておくことで、同じ問題に再遭遇した時にすぐ参照できる。
シーン4: 新技術のキャッチアップ
/research Claude 3.5 Opus 新機能と変更点
リリースノートや公式ブログを整理して、チームに共有。
コマンドの実装
/research コマンドは、.claude/commands/research.md に配置されています。
興味がある方は、以下の Gist で全文を公開しています。
カスタマイズのヒント
自分のプロジェクトに合わせてカスタマイズできます。
出力先の変更:
Save the research document to `your/custom/path/` with:
調査パターンの追加:
### パターンE: セキュリティ調査
**目的**: セキュリティリスクを評価したい
**重点項目**:
- CVE情報
- セキュリティアドバイザリ
- ベンダーのセキュリティガイド
まとめ
/research コマンドは、以下の課題を解決します。
| 課題 | 解決策 |
|---|---|
| クオリティがまばら | 深度を選択して期待値を合わせる |
| 出典が不明 | AACA評価と情報源テーブル |
| フォーマットがバラバラ | 統一テンプレートで出力 |
| 保存先もバラバラ | docs/research/ に自動保存 |
調査結果は docs/research/ に蓄積されるため、チームの知識資産として活用できます。
- 同じトピックを再調査する必要がない
- 新メンバーのオンボーディング資料になる
- ブログ執筆の下調べとしてそのまま使える
「調べて」と頼むだけでなく、調査の質をコントロールしたい場面で活用してみてください。
参考リンク
公式ドキュメント
関連記事
ここまで読んでいただき、ありがとうございました!
技術調査は地味だけど重要な作業。/research コマンドで、その効率を上げてみてください。
