ハルシネーション(Hallucination)とは、AI モデルが事実に基づかない情報をあたかも正しいかのように生成する現象である。LLM が学習データのパターンから「もっともらしい」テキストを生成する仕組みに起因し、完全な排除は困難とされている。
## なぜ「幻覚」と呼ばれるのか 人間の幻覚が実在しないものを知覚する現象であるように、AI のハルシネーションも「存在しない事実」を生成する。ただし人間の幻覚とは本質的に異なり、LLM は「事実かどうか」を判断する機構を持たない。次に来る確率の高いトークンを連鎖的に生成しているだけであり、その結果がたまたま事実と一致することもあれば、まったくの創作になることもある。
## 典型的なパターン ハルシネーションにはいくつかの類型がある。存在しない論文の引用(架空の著者名と DOI を生成する)、実在する人物への虚偽の経歴付与、もっともらしい数値データの捏造などが代表的だ。厄介なのは、ハルシネーションの出力が文法的に正しく、文脈にも自然に溶け込む点にある。
明らかな誤りなら気づきやすいが、「9 割正しくて 1 割だけ嘘」というパターンが検出を難しくしている。## 対策アプローチ 現時点で有力な対策は RAG(Retrieval-Augmented Generation)の導入だ。モデルが回答を生成する前に外部のナレッジベースから関連情報を検索し、その情報に基づいて回答させることで、事実に即した出力の確率を高める。
もう一つの方向性が HITL(Human-in-the-Loop)の組み込みである。AI の出力を人間がレビューするフローを設計することで、ハルシネーションが最終成果物に混入するリスクを下げる。医療や法務など、誤情報のコストが高い領域ではこの組み合わせが事実上の標準になりつつある。


A2A(Agent-to-Agent Protocol)とは、異なる AI エージェント同士が能力の発見・タスクの委譲・状態の同期を行うための通信プロトコルであり、Google が 2025 年 4 月に公開した。

Agent Skills とは、AI エージェントに特定のタスクや専門知識を実行させるために定義された再利用可能な命令セットであり、エージェントの能力を拡張するモジュール単位として機能する。

Agentic AI とは、人間の逐一の指示なしに目標を解釈し、計画の立案・実行・検証を自律的に繰り返す AI システムの総称である。


Agentic RAG とは、LLM がエージェントとして検索クエリの生成・結果の評価・再検索の判断を自律的に繰り返すことで、単純な一問一答型 RAG では得られない回答精度を実現するアーキテクチャである。