ハルシネーション(Hallucination)とは、AI モデルが事実に基づかない情報をあたかも正しいかのように生成する現象である。LLM が学習データのパターンから「もっともらしい」テキストを生成する仕組みに起因し、完全な排除は困難とされている。
人間の幻覚が実在しないものを知覚する現象であるように、AI のハルシネーションも「存在しない事実」を生成する。ただし人間の幻覚とは本質的に異なり、LLM は「事実かどうか」を判断する機構を持たない。次に来る確率の高いトークンを連鎖的に生成しているだけであり、その結果がたまたま事実と一致することもあれば、まったくの創作になることもある。
ハルシネーションにはいくつかの類型がある。存在しない論文の引用(架空の著者名と DOI を生成する)、実在する人物への虚偽の経歴付与、もっともらしい数値データの捏造などが代表的だ。
厄介なのは、ハルシネーションの出力が文法的に正しく、文脈にも自然に溶け込む点にある。明らかな誤りなら気づきやすいが、「9 割正しくて 1 割だけ嘘」というパターンが検出を難しくしている。
現時点で有力な対策は RAG(Retrieval-Augmented Generation)の導入だ。モデルが回答を生成する前に外部のナレッジベースから関連情報を検索し、その情報に基づいて回答させることで、事実に即した出力の確率を高める。
もう一つの方向性が HITL(Human-in-the-Loop)の組み込みである。AI の出力を人間がレビューするフローを設計することで、ハルシネーションが最終成果物に混入するリスクを下げる。医療や法務など、誤情報のコストが高い領域ではこの組み合わせが事実上の標準になりつつある。


HITL(Human-in-the-Loop)とは、AI システムの出力を人間が確認・修正・承認するプロセスを設計に組み込む手法である。完全自動化ではなく、判断の重要度に応じて人間の介入ポイントを設けることで、精度と信頼性を担保する。

LLMの出力を外部データソースや検索結果と照合し、事実に基づいた回答を生成する技術。ハルシネーション低減の中核手法。

AI チャットボットとは、自然言語処理(NLP)や LLM を活用し、人間との対話を自動で行うソフトウェアである。従来のルールベースのチャットボットとは異なり、事前に定義されていない質問にも文脈を理解して応答できる点が特徴である。


ヒューマン・イン・ザ・ループ(HITL)とは?AIで業務自動化を定着させる「人間参加型」設計の基礎
LLM(Large Language Model)とは、大量のテキストデータで事前学習された、数十億〜数兆のパラメータを持つニューラルネットワークモデルの総称であり、自然言語の理解・生成を高い精度で行う。