LLMに推論の中間ステップを明示的に生成させることで、複雑なタスクの正答率を向上させるプロンプト技法。
思考連鎖(Chain of Thought, CoT)とは、LLM に対して推論の中間ステップを明示的に生成させることで、複雑なタスクの正答率を向上させるプロンプト技法である。
「りんごが 3 個、みかんが 5 個。合計は?」という問題に対し、LLM が直接「8」と答えるのではなく「りんご 3 個 + みかん 5 個 = 8 個」と途中経過を出力するよう誘導する。単純な足し算では差が出にくいが、多段推論や条件分岐を含む問題——たとえば法的要件の充足判断——では正答率が大幅に改善する。
プロンプトに「ステップバイステップで考えてください」と付け加えるだけでも効果がある。これを Zero-shot CoT と呼ぶ。
推論モデルは CoT をモデル内部に組み込んだ設計であり、プロンプトで誘導しなくても自動的に思考連鎖を生成する。一方、通常の LLM でもプロンプトエンジニアリングで CoT を引き出せるため、まずはプロンプト側で試し、精度が足りなければ推論モデルに切り替えるのが実務上のセオリーだ。
注意点として、CoT は出力トークン数を増やすためコストが上がる。全リクエストに適用するのではなく、精度が重要なクエリに限定して使うのが賢い運用と言える。


マルチステップ推論とは、LLM が1回の応答生成ではなく、複数の中間ステップ(サブ質問の生成、部分回答の検証、追加情報の取得など)を経て最終回答に到達する推論方式である。

推論時スケーリングとは、モデルの推論フェーズで使う計算量を動的に増減させることで、難しい問題にはより多くの「思考ステップ」を費やし、簡単な問題には即答する手法である。

RAG(Retrieval-Augmented Generation)とは、外部の知識ソースから関連情報を検索し、その結果を LLM の入力に付加することで、回答の正確性と最新性を向上させる手法である。



AIエージェントとは?タイ企業が業務を自律的に自動化する次世代AI活用ガイド
RLHFとは人間のフィードバックを報酬として使う強化学習手法、RLVRとは検証可能な正解を報酬として使う強化学習手法であり、いずれもLLMの出力を人間の期待に沿うよう調整するために用いられる。