エンベディング(Embedding)とは、テキスト・画像・音声などの非構造化データを、意味的な関係性を保ったまま固定長の数値ベクトルに変換する技術である。
コンピュータは「りんご」と「みかん」が似ていることを文字列からは判断できない。エンベディングはこの問題を解決する。「りんご」を [0.23, -0.41, 0.87, ...] のような数百次元のベクトルに変換すると、「みかん」のベクトルとは距離が近く、「自動車」のベクトルとは遠くなる。
意味の近さが数値の近さとして表現される。LLM の内部でもエンベディングは中核的な役割を果たしている。入力テキストはまずトークン化され、各トークンがエンベディングベクトルに変換される。
Transformer はこのベクトル列を処理して出力を生成する。実務で頻繁に使われるのは、文章単位のエンベディングだ。OpenAI の text-embedding-3-small や Cohere の embed-v4 といったモデルが、文章を一つのベクトルに変換する。
このベクトルをベクトルデータベースに格納すれば、意味検索や RAG の検索層が構築できる。モデル選択の際は、次元数・対応言語・コストのバランスが判断基準になる。日本語やタイ語を扱う場合、多言語対応モデルの精度を事前にベンチマークしておくことが重要だ。


ベクトルデータベースとは、テキストや画像を数値ベクトル(エンベディング)に変換して格納し、意味的な類似度に基づく高速検索を提供するデータベースである。

コンテキスト・エンジニアリング(Context Engineering)とは、AI モデルに与えるコンテキスト——コードベースの構造、コミット履歴、設計意図、ドメイン知識——を体系的に設計・最適化する技術領域である。

E2E テスト(End-to-End テスト)とは、ユーザーの操作を起点にブラウザや API を通じてシステム全体を通過させ、期待どおりの結果が得られるかを検証するテスト手法である。



PEFT(パラメータ効率型ファインチューニング)とは?AI モデルカスタマイズのコストを 90% 削減する技術
ハイブリッド検索とは、キーワードベースの全文検索(BM25 等)とベクトル検索(セマンティック検索)を組み合わせ、両者の長所を活かして検索精度を向上させる手法である。