チャンクサイズとは、RAG パイプラインにおいて文書をベクトルストアに格納する際の分割単位の大きさ(トークン数や文字数)を指す。検索精度と回答品質に直結する重要なパラメータである。
## なぜ分割が必要なのか LLM のコンテキストウィンドウには上限がある。数百ページの社内マニュアルをそのまま渡すことはできないため、文書を適切な粒度に分割(チャンキング)してベクトル化し、質問に関連する部分だけを検索・取得する必要がある。このとき「どの程度の大きさで切るか」がチャンクサイズの問題になる。
## 大きすぎても小さすぎても困る チャンクが小さすぎると、1つのチャンクに含まれる文脈が不足し、検索でヒットしても LLM が回答を組み立てるのに必要な情報が欠ける。逆に大きすぎると、無関係な情報がノイズとして混入し、回答精度が下がるうえにトークンコストも増える。一般的には 256〜1,024 トークン程度が出発点とされるが、最適値はドメインと質問の性質に依存する。
FAQ のような短い Q&A なら小さめ、技術仕様書のような前後の文脈が重要な文書なら大きめに設定する、というのが実務での基本方針だ。## オーバーラップという工夫 チャンク境界で文脈が途切れる問題を緩和するために、隣接チャンクを一部重複させる「オーバーラップ」がよく使われる。たとえばチャンクサイズ 512 トークン、オーバーラップ 64 トークンなら、前のチャンクの末尾 64 トークンが次のチャンクの先頭にも含まれる。
BM25 やベクトル検索の精度向上に寄与するが、ストレージとインデックスサイズは増加する。


A2A(Agent-to-Agent Protocol)とは、異なる AI エージェント同士が能力の発見・タスクの委譲・状態の同期を行うための通信プロトコルであり、Google が 2025 年 4 月に公開した。

Agent Skills とは、AI エージェントに特定のタスクや専門知識を実行させるために定義された再利用可能な命令セットであり、エージェントの能力を拡張するモジュール単位として機能する。

Agentic AI とは、人間の逐一の指示なしに目標を解釈し、計画の立案・実行・検証を自律的に繰り返す AI システムの総称である。


ATDD(Acceptance Test-Driven Development)とは、開発着手前に受け入れテストの基準をチーム全体で定義し、そのテストを自動化してから実装を進める開発手法である。