
ハルシネーション(Hallucination)
ハルシネーション(Hallucination)とは、AI モデルが事実に基づかない情報をあたかも正しいかのように生成する現象である。LLM が学習データのパターンから「もっともらしい」テキストを生成する仕組みに起因し、完全な排除は困難とされている。
AI・DX・セキュリティに関する専門用語を図解つきでわかりやすく解説します

ハルシネーション(Hallucination)とは、AI モデルが事実に基づかない情報をあたかも正しいかのように生成する現象である。LLM が学習データのパターンから「もっともらしい」テキストを生成する仕組みに起因し、完全な排除は困難とされている。

ファインチューニング(Fine-Tuning)とは、事前学習済みの機械学習モデルに追加の学習データを与え、特定のタスクやドメインに適応させるプロセスを指す。

ファジングとは、対象プログラムにランダムまたは半構造化された大量の入力データを自動的に与え、クラッシュや予期しない挙動を引き起こすことでソフトウェアの脆弱性やバグを検出するテスト手法である。


フィーチャーストアとは、機械学習モデルの学習・推論に使う特徴量を一元管理・再利用するためのデータ基盤のこと。モデル開発の重複作業を削減し、本番環境との特徴量の一貫性を保証する。
128件 / 9/11