エンベディング(Embedding)とは、テキスト・画像・音声などの非構造化データを、意味的な関係性を保ったまま固定長の数値ベクトルに変換する技術である。
コンピュータは「りんご」と「みかん」が似ていることを文字列からは判断できない。エンベディングはこの問題を解決する。「りんご」を [0.23, -0.41, 0.87, ...] のような数百次元のベクトルに変換すると、「みかん」のベクトルとは距離が近く、「自動車」のベクトルとは遠くなる。意味の近さが数値の近さとして表現される。
LLM の内部でもエンベディングは中核的な役割を果たしている。入力テキストはまずトークン化され、各トークンがエンベディングベクトルに変換される。Transformer はこのベクトル列を処理して出力を生成する。
実務で頻繁に使われるのは、文章単位のエンベディングだ。OpenAI の text-embedding-3-small や Cohere の embed-v4 といったモデルが、文章を一つのベクトルに変換する。このベクトルをベクトルデータベースに格納すれば、意味検索や RAG の検索層が構築できる。
モデル選択の際は、次元数・対応言語・コストのバランスが判断基準になる。日本語やタイ語を扱う場合、多言語対応モデルの精度を事前にベンチマークしておくことが重要だ。


ベクトルデータベースとは、テキストや画像を数値ベクトル(エンベディング)に変換して格納し、意味的な類似度に基づく高速検索を提供するデータベースである。

Gemini Embedding 2 とは、Google が開発したマルチモーダル対応のエンベディングモデルであり、テキスト・画像・動画・音声・ドキュメントを単一のベクトル空間に変換できる。

コンテキスト・エンジニアリング(Context Engineering)とは、AI モデルに与えるコンテキスト——コードベースの構造、コミット履歴、設計意図、ドメイン知識——を体系的に設計・最適化する技術領域である。



AI コーディングエージェント実践ガイド — Claude Code vs Codex で開発チームはどう変わるか
プロンプトエンジニアリングとは、LLM(大規模言語モデル)から望ましい出力を引き出すために、入力テキスト(プロンプト)の構造・表現・文脈を設計する技術である。