プロンプトエンジニアリングとは、LLM(大規模言語モデル)から望ましい出力を引き出すために、入力テキスト(プロンプト)の構造・表現・文脈を設計する技術である。
## なぜプロンプトの書き方で結果が変わるのか LLMは入力されたテキストの続きを予測する仕組みで動いている。同じ質問でも、前提条件や出力形式の指定を添えるかどうかで、回答の精度や有用性が大きく変わる。「日本語で3つの案を箇条書きで出して」と指定するだけでも、漫然と質問するよりはるかに実用的な回答が得られる。
## 代表的なテクニック **Zero-shot / Few-shot**: 例示なしで指示を出すのがZero-shot、具体例を1〜数件添えるのがFew-shot。分類タスクやフォーマット指定ではFew-shotが安定する傾向がある。**Chain-of-Thought(CoT)**: 「ステップバイステップで考えて」と指示することで、推論プロセスを明示させる手法。
数学や論理問題での正答率が向上することが知られている。**Role Prompting**: 「あなたはシニアエンジニアです」のように役割を指定する。出力のトーンや専門性をコントロールするのに使う。
## コンテキストエンジニアリングへの発展 2025年頃から、単発のプロンプト設計だけでなく、AIシステム全体に渡す情報(コンテキスト)をどう構成するかという視点が重要視されるようになった。これがコンテキストエンジニアリングと呼ばれる領域で、RAGによる外部知識の注入、ツール定義の構造化、会話履歴の管理などを包括する。プロンプトエンジニアリングはその中の一要素という位置づけになりつつある。
とはいえ、プロンプトの基本原則——明確な指示、適切な例示、出力フォーマットの指定——はコンテキストエンジニアリングの土台でもある。基礎を押さえずにシステム全体の設計はできない。


A2A(Agent-to-Agent Protocol)とは、異なる AI エージェント同士が能力の発見・タスクの委譲・状態の同期を行うための通信プロトコルであり、Google が 2025 年 4 月に公開した。

Agent Skills とは、AI エージェントに特定のタスクや専門知識を実行させるために定義された再利用可能な命令セットであり、エージェントの能力を拡張するモジュール単位として機能する。

Agentic AI とは、人間の逐一の指示なしに目標を解釈し、計画の立案・実行・検証を自律的に繰り返す AI システムの総称である。


Agentic RAG とは、LLM がエージェントとして検索クエリの生成・結果の評価・再検索の判断を自律的に繰り返すことで、単純な一問一答型 RAG では得られない回答精度を実現するアーキテクチャである。