トークン(Token)とは、LLM がテキストを処理する際の最小単位である。単語そのものではなく、単語の一部や記号、空白なども含まれ、モデルの語彙(ボキャブラリー)に基づいてテキストを分割した結果の断片を指す。
「トークン」と聞くと単語を思い浮かべがちだが、実際にはもう少し細かい。英語の "unbelievable" は "un", "believ", "able" の 3 トークンに分割されることがある。日本語の場合はさらに事情が複雑で、ひらがな 1 文字が 1 トークンになることもあれば、漢字 1 文字で 2〜3 トークンを消費することもある。
この分割処理をトークナイゼーションと呼び、モデルごとに異なるアルゴリズム(BPE、SentencePiece など)を使う。同じ文章でもモデルによってトークン数が変わるのはこのためだ。
LLM のコストと性能は、ほぼすべてトークン数で決まる。API 利用料金は入力・出力のトークン数に応じた従量課金が一般的であり、コンテキストウィンドウ(モデルが一度に扱えるテキスト量)もトークン数で定義される。
推論速度にも直結する。Dense Model では全パラメータが各トークンの処理に関与するため、トークン数が増えれば比例して計算量が増える。長文の要約タスクで入力を圧縮する工夫が求められるのはこの制約による。
英語では「1 トークン ≒ 4 文字 ≒ 0.75 単語」がよく使われる目安だ。日本語はトークン効率が低く、同じ意味内容でも英語の 1.5〜2 倍のトークンを消費する傾向がある。多言語対応のシステムを設計する際には、この差をコスト見積もりに織り込む必要がある。


テキストを頻出パターンで統合しサブワード単位に分割するアルゴリズム。LLM の入出力コストと処理速度に直結し、低リソース言語では専用語彙が不足するためバイトレベル分解が発生する。

OIDC トークンとは、OpenID Connect プロトコルで発行される ID トークン・アクセストークン・リフレッシュトークンの総称で、ユーザー認証と認可情報を安全にやり取りするための署名付きデータである。

LLMに推論の中間ステップを明示的に生成させることで、複雑なタスクの正答率を向上させるプロンプト技法。



AIエージェントプロトコル(MCP・A2A)とは?マルチエージェント連携の仕組みを解説
SLM(Small Language Model)とは、パラメータ数を数十億〜百億程度に抑えた言語モデルの総称で、LLMに比べ少ない計算資源で推論・Fine-tuningが可能なことを特徴とする。