ハルシネーション(Hallucination)ハルシネーション(Hallucination)とは、AI モデルが事実に基づかない情報をあたかも正しいかのように生成する現象である。LLM が学習データのパターンから「もっともらしい」テキストを生成する仕組みに起因し、完全な排除は困難とされている。