LLMの出力を外部データソースや検索結果と照合し、事実に基づいた回答を生成する技術。ハルシネーション低減の中核手法。
## グラウンディングとは グラウンディング(Grounding)とは、LLM の出力を外部の信頼できるデータソースと照合し、事実に基づいた回答を生成させる技術である。ハルシネーション(もっともらしいが事実でない回答)を低減する中核的なアプローチとして位置づけられる。### RAG はグラウンディングの実装手段 RAG(Retrieval-Augmented Generation)はグラウンディングを実現する最も一般的な方法だ。
外部データベースやドキュメントから関連情報を検索し、その情報をコンテキストとしてモデルに渡すことで、モデルが「知らないことを知らない」と判断しやすくなる。ただし、RAG だけでグラウンディングが完成するわけではない。検索結果の品質が低ければ、誤った情報にグラウンディングされるリスクがある。
### グラウンディングの多層構造 効果的なグラウンディングは複数の層で実現される。1. **検索層**: ベクトル検索やナレッジグラフで関連情報を取得する 2. **検証層**: 取得した情報の鮮度・信頼度を評価する 3. **生成層**: 回答に情報源の引用を付与し、検証可能にする 4. **出力層**: ガードレールで事実性を最終チェックする ### 実務での効果 「出典付きで回答させる」だけでもハルシネーション率は大きく下がる。ただし LLM は出典を捏造することもあるため、引用元 URL が実在するかを後処理で検証する仕組みまで含めて設計するのが望ましい。


RAG(Retrieval-Augmented Generation)とは、外部の知識ソースから関連情報を検索し、その結果を LLM の入力に付加することで、回答の正確性と最新性を向上させる手法である。

ハルシネーション(Hallucination)とは、AI モデルが事実に基づかない情報をあたかも正しいかのように生成する現象である。LLM が学習データのパターンから「もっともらしい」テキストを生成する仕組みに起因し、完全な排除は困難とされている。

Agentic RAG とは、LLM がエージェントとして検索クエリの生成・結果の評価・再検索の判断を自律的に繰り返すことで、単純な一問一答型 RAG では得られない回答精度を実現するアーキテクチャである。


RLHFとは人間のフィードバックを報酬として使う強化学習手法、RLVRとは検証可能な正解を報酬として使う強化学習手法であり、いずれもLLMの出力を人間の期待に沿うよう調整するために用いられる。