LLMの出力を外部データソースや検索結果と照合し、事実に基づいた回答を生成する技術。ハルシネーション低減の中核手法。
グラウンディング(Grounding)とは、LLM の出力を外部の信頼できるデータソースと照合し、事実に基づいた回答を生成させる技術である。ハルシネーション(もっともらしいが事実でない回答)を低減する中核的なアプローチとして位置づけられる。
RAG(Retrieval-Augmented Generation)はグラウンディングを実現する最も一般的な方法だ。外部データベースやドキュメントから関連情報を検索し、その情報をコンテキストとしてモデルに渡すことで、モデルが「知らないことを知らない」と判断しやすくなる。
ただし、RAG だけでグラウンディングが完成するわけではない。検索結果の品質が低ければ、誤った情報にグラウンディングされるリスクがある。
効果的なグラウンディングは複数の層で実現される。
「出典付きで回答させる」だけでもハルシネーション率は大きく下がる。ただし LLM は出典を捏造することもあるため、引用元 URL が実在するかを後処理で検証する仕組みまで含めて設計するのが望ましい。


RAG(Retrieval-Augmented Generation)とは、外部の知識ソースから関連情報を検索し、その結果を LLM の入力に付加することで、回答の正確性と最新性を向上させる手法である。

ハルシネーション(Hallucination)とは、AI モデルが事実に基づかない情報をあたかも正しいかのように生成する現象である。LLM が学習データのパターンから「もっともらしい」テキストを生成する仕組みに起因し、完全な排除は困難とされている。

Agentic RAG とは、LLM がエージェントとして検索クエリの生成・結果の評価・再検索の判断を自律的に繰り返すことで、単純な一問一答型 RAG では得られない回答精度を実現するアーキテクチャである。


ヒューマン・イン・ザ・ループ(HITL)とは?AIで業務自動化を定着させる「人間参加型」設計の基礎
RLHFとは人間のフィードバックを報酬として使う強化学習手法、RLVRとは検証可能な正解を報酬として使う強化学習手法であり、いずれもLLMの出力を人間の期待に沿うよう調整するために用いられる。