ベースモデル(Foundation Model)とは、大規模なデータセットで事前学習(プリトレーニング)された汎用 AI モデルのことである。特定のタスクに特化しておらず、ファインチューニングやプロンプトエンジニアリングによって多様な用途に適応できる「土台」として機能する。
## 「基盤」としてのモデル 2021 年にスタンフォード大学が提唱した "Foundation Model" という呼称は、建築の基礎(foundation)になぞらえている。一つの基盤の上に、チャットボット、コード生成、翻訳、要約といった多様なアプリケーションを構築できるという発想だ。GPT、Claude、Llama、Gemini といった主要な LLM はすべてベースモデルであり、数兆トークンのテキストデータで事前学習されている。
この事前学習によって言語の構造、世界知識、推論能力の「素地」が獲得される。## カスタマイズの方法 ベースモデルを特定の業務に適応させる方法は複数ある。最も手軽なのはプロンプトエンジニアリングで、モデル自体は変更せずに指示文を工夫する。
次にファインチューニングがあり、業務固有のデータでモデルの重みを調整する。LoRA や QLoRA はこのファインチューニングのコストを大幅に下げる手法だ。さらに踏み込む場合は継続事前学習(Continued Pre-training)を行い、ドメイン固有の知識をモデルに追加する。
医療や法律など専門用語が多い領域で採用されることがある。## オープンウェイト vs プロプライエタリ ベースモデルは大きく二つに分かれる。Meta の Llama や Mistral のようにモデルの重みが公開されている「オープンウェイトモデル」と、OpenAI の GPT や Anthropic の Claude のように API 経由でのみ利用できるプロプライエタリモデルだ。
自社でファインチューニングやローカル LLM 運用を行う場合はオープンウェイトモデルが前提になる。API 利用で十分な場合はプロプライエタリモデルの方が運用コストが低い場合もある。


ファインチューニング(Fine-Tuning)とは、事前学習済みの機械学習モデルに追加の学習データを与え、特定のタスクやドメインに適応させるプロセスを指す。

PEFT(Parameter-Efficient Fine-Tuning)とは、大規模言語モデルの全パラメータではなく一部のみを更新することで、少ない計算資源とデータでモデルを特定タスクに適応させるファインチューニング手法の総称である。

オープンウェイトモデルとは、学習済みのモデルの重み(パラメータ)が公開されており、ダウンロードして自由に推論やFine-tuningに利用できる言語モデルのことである。



AIエージェントとは?タイ企業が業務を自律的に自動化する次世代AI活用ガイド
MCP(Model Context Protocol)とは、AI エージェントが外部ツール・データベース・API に接続するための標準プロトコルであり、Anthropic が開発し Linux Foundation の Agentic AI Foundation に寄贈されたオープン標準である。