LLM(Large Language Model)とは、大量のテキストデータで事前学習された、数十億〜数兆のパラメータを持つニューラルネットワークモデルの総称であり、自然言語の理解・生成を高い精度で行う。
2022 年 11 月の ChatGPT 公開を境に、LLM という言葉は技術者の間だけでなく一般にも広まった。だが「大規模言語モデル」という名前が示す本質はシンプルで、「大量のテキストを読ませて、次に来る単語を予測する訓練を繰り返したモデル」に過ぎない。この単純な学習目標から、翻訳・要約・コード生成・推論といった多様な能力が創発的に現れるのが LLM の面白さであり、同時に理論的な理解が追いついていない部分でもある。
規模感を具体的に示すと、GPT-3 が 1,750 億パラメータ(2020 年)、Llama 3 が 700 億パラメータ(2024 年)、GPT-4 は非公開だが推定で 1 兆超とされている。パラメータ数が増えるほど賢くなる傾向はあるが、Llama 3 70B が GPT-3 175B を多くのベンチマークで上回っている事実が示すように、学習データの質とアーキテクチャの改善も同等以上に重要だ。実務で LLM を使うルートは主に 3 つある。
1 つ目は **API 経由**。OpenAI や Anthropic のモデルをそのまま呼び出す。最も手軽だが、データが外部に送信される点と、従量課金のコスト管理が課題になる。
2 つ目は **RAG との組み合わせ**。社内ドキュメントを検索して LLM に渡すことで、ハルシネーション(事実と異なる出力)を抑えつつ社内知識を活用する。モデル自体は変更しないため導入障壁が低い。
3 つ目は **ファインチューニング**。自社データでモデルの振る舞いを調整する。回答のトーン統一や、業界特有の専門用語の正確な使用が必要な場合に有効だが、学習データの準備と GPU コストが必要になる。
どのルートを選ぶかは「何を解決したいか」次第であり、3 つを組み合わせるケースも増えている。


A2A(Agent-to-Agent Protocol)とは、異なる AI エージェント同士が能力の発見・タスクの委譲・状態の同期を行うための通信プロトコルであり、Google が 2025 年 4 月に公開した。

Agent Skills とは、AI エージェントに特定のタスクや専門知識を実行させるために定義された再利用可能な命令セットであり、エージェントの能力を拡張するモジュール単位として機能する。

Agentic AI とは、人間の逐一の指示なしに目標を解釈し、計画の立案・実行・検証を自律的に繰り返す AI システムの総称である。
