LLMに推論の中間ステップを明示的に生成させることで、複雑なタスクの正答率を向上させるプロンプト技法。
## 思考連鎖とは 思考連鎖(Chain of Thought, CoT)とは、LLM に対して推論の中間ステップを明示的に生成させることで、複雑なタスクの正答率を向上させるプロンプト技法である。### 具体例で理解する 「りんごが 3 個、みかんが 5 個。合計は?」という問題に対し、LLM が直接「8」と答えるのではなく「りんご 3 個 + みかん 5 個 = 8 個」と途中経過を出力するよう誘導する。
単純な足し算では差が出にくいが、多段推論や条件分岐を含む問題——たとえば法的要件の充足判断——では正答率が大幅に改善する。プロンプトに「ステップバイステップで考えてください」と付け加えるだけでも効果がある。これを Zero-shot CoT と呼ぶ。
### 推論モデルとの関係 推論モデルは CoT をモデル内部に組み込んだ設計であり、プロンプトで誘導しなくても自動的に思考連鎖を生成する。一方、通常の LLM でもプロンプトエンジニアリングで CoT を引き出せるため、まずはプロンプト側で試し、精度が足りなければ推論モデルに切り替えるのが実務上のセオリーだ。注意点として、CoT は出力トークン数を増やすためコストが上がる。
全リクエストに適用するのではなく、精度が重要なクエリに限定して使うのが賢い運用と言える。


A2A(Agent-to-Agent Protocol)とは、異なる AI エージェント同士が能力の発見・タスクの委譲・状態の同期を行うための通信プロトコルであり、Google が 2025 年 4 月に公開した。

Agent Skills とは、AI エージェントに特定のタスクや専門知識を実行させるために定義された再利用可能な命令セットであり、エージェントの能力を拡張するモジュール単位として機能する。

Agentic AI とは、人間の逐一の指示なしに目標を解釈し、計画の立案・実行・検証を自律的に繰り返す AI システムの総称である。


ハーネスエンジニアリングとは?AIエージェントのミスを構造で防ぐ設計手法
Agentic RAG とは、LLM がエージェントとして検索クエリの生成・結果の評価・再検索の判断を自律的に繰り返すことで、単純な一問一答型 RAG では得られない回答精度を実現するアーキテクチャである。