
AI 開発のサプライチェーンとは、AI 製品が依存する公開モデル・依存パッケージ・SaaS DevOps プラットフォーム・開発に組み込まれた AI エージェントまでを含む供給網全体である。本記事は AI 製品を開発・運用する企業の CTO、セキュリティ責任者、SRE 向けに、2024〜2026 年に表面化した主要インシデントを整理し、SBOM だけでは塞ぎきれない AI 固有の攻撃面と、AI BOM / モデルカード検証 / 最小権限 OAuth / Sensitive シークレット運用 / CI/CD 隔離を組み合わせた防御戦略を解説する。読み終えたとき、自社の AI 開発パイプラインに足りない防御策をチェックリスト化できる。
AI 製品の供給網は従来のソフトウェア供給網よりも広い。モデル・依存パッケージ・SaaS DevOps・AI エージェントの 4 経路で侵害が連続して観測されている。 本章では 2024〜2026 年に表面化した主要インシデントと、AI 開発に固有のリスク表面の広さを整理する。
2024〜2026 年に AI 開発の現場を揺さぶったインシデントは、性質の異なる 4 経路で発生している。
これらは別々の事件に見えるが、いずれも「AI / SaaS 開発の依存先のどこかが侵害される → 鍵やコードが連鎖的に漏洩する」という同じ構造を持つ。
AI 開発のリスク表面が従来より広い理由は 4 つある。
第一に、重みファイルが実行可能ペイロードになり得る。Pickle 形式のモデルは Python コードを任意に実行でき、scanner なしで読み込めば侵害が成立する。第二に、ベース重みやデータセットを公開ハブから取得する慣習があり、ハブ側のアカウント侵害が即座に取り込まれる。第三に、AI 開発は SaaS の連鎖で成り立つ — モデルレジストリ、ベクトルデータベース、デプロイプラットフォーム、ログ基盤など、各 API キー / OAuth スコープが供給網の一部となる。第四に、AI コーディングエージェントを開発に組み込む企業が増えたことで、エージェントが書き込む依存追加そのものが攻撃ベクトルになり得る。これらは従来の SBOM と CVE スキャンだけでは可視化できない領域であり、AI 固有の対策が必要になる。

Hugging Face などの公開ハブから取得したモデルは、Pickle 形式のままロードすると任意コード実行に直結する。safetensors への移行とモデルカードの署名検証が第一防衛線となる。 本章では公開モデルバックドアの実例と、検証なしロードが招くリスクを整理する。
Hugging Face を含む公開モデルレジストリでは、Pickle 形式 (.bin / .pkl / .pt) のモデルにバックドアが仕込まれた事例が継続的に報告されている。ReversingLabs は Pickle scanner を回避してモデルロード時に外部接続やリバースシェルを起動する PoC を公開し、複数の悪意ある実例を検出してきた (出典: ReversingLabs "nullifAI" 解析記事)。JFrog Security Research も Pickle ベースのバックドア入りモデルを多数検出し、Hugging Face 側に通報している (出典: JFrog Security Research)。
これらの攻撃は「正規モデル名に酷似したリポジトリ名で公開する」「正規モデルの fine-tuned 版と称して配布する」など、社会工学要素を組み合わせる。AI 開発組織が個別エンジニアの判断で from_pretrained() を呼び出している限り、Pickle 実行リスクは常時存在する。問題はバックドアが「特殊事例」ではなく、公開ハブの構造そのものから派生する継続的な脅威であるという点だ。
Pickle が任意コード実行可能なのは仕様であり、不具合ではない。Python の pickle.load() は __reduce__ を通じて任意の関数呼び出しを許す設計のため、scanner なしでロードした時点で侵害が成立する (出典: Python 公式ドキュメント pickle モジュール「Warning」節)。
対策は 3 段階で進める。
社内の from_pretrained() 呼び出しを共通ラッパーに集約し、ラッパーがレジストリ・形式・署名を強制するパターンが運用しやすい。エンジニアが個別に Pickle をロードする状態をなくすこと自体が、組織レベルの防御になる。

npm / PyPI のサードパーティパッケージと GitHub Actions は、AI 開発でも標準的に利用される依存層である。typosquatting、メンテナアカウント乗っ取り、ビルド時の差し替えのいずれにも実例がある。 本章では具体事例と多段攻撃の構造を整理する。
依存パッケージ層の侵害は、AI 開発でも頻繁に観測される。代表的なパターンは 3 つある。
AI 開発では transformers / torch / accelerate などの上位パッケージに加え、ベクトル DB クライアント、エージェントフレームワーク、評価ライブラリなど第二・第三依存が深い。表層パッケージしか管理していないチームは、深いレベルでの侵害に気づきにくい構造的リスクを抱えている。
xz utils バックドア (CVE-2024-3094) は、依存層の侵害が単発のパッケージで完結しない実例である。"Jia Tan" 名義の攻撃者は 2 年以上をかけて xz プロジェクトの maintainer 権限を獲得し、liblzma に難読化されたバックドアを段階的に仕込んだ。最終的なペイロードは liblzma 経由で sshd の認証ロジックを書き換え、特定の攻撃者だけが SSH 認証を迂回できる状態を作るものだった (出典: NVD CVE-2024-3094, Andres Freund による oss-security メーリングリスト報告)。
AI 開発から見ると教訓は 2 つある。
第一に、maintainer の社会的乗っ取りは技術的検知では防げない。コミット署名や CI スキャンに加え、重要 OSS への組織的なメンテナ寄付、SLSA レベルの追跡、Reproducible Build の採用が必要になる。第二に、直接依存していないライブラリ (libc 周辺の圧縮ライブラリなど) が AI 推論サーバの SSH 経路に影響することがある。AI BOM の対象は ML スタックだけでなく、モデルサービング基盤の OS レイヤーまで含めるべきだ。「AI 開発に関係ない OSS」という想定で範囲を絞ると、xz utils と同型の攻撃を見落とす。

SaaS DevOps プラットフォームの侵害は、開発者個人の漏洩と異なり、複数顧客のシークレット・コード・デプロイ権限が同時に影響を受ける。Vercel 2026 年 4 月インシデントは encrypted と Sensitive の運用差を浮き彫りにした。 本章ではインシデントの構造と運用上の教訓を整理する。
Vercel が 2026 年 4 月に公表したインシデントは、従業員アカウントが第三者 AI ツール経由で侵害され、一部顧客の encrypted 環境変数が外部に露出した事案である。Vercel は、機密 (Sensitive) 環境変数は暗号化保護下にありアクセスの証拠は確認されていないこと、サービスは継続稼働していること、npm パッケージの供給網は安全であることを公表している (出典: Vercel KB Bulletin "April 2026 security incident")。
ここで重要なのは、Vercel の環境変数には保管モードが複数あることだ。
教訓は明快である。API キー、トークン、データベース認証情報、署名キーは Sensitive 必須とする。「最小変更で済むから」と既存の encrypted のまま運用してはならない。新規キーは最初から Sensitive で作成し、ローテーションのたびに Sensitive に昇格させる運用が標準になる。Vercel 自身も本インシデント後に環境変数のデフォルトを Sensitive 有効に変更している。
SaaS 連鎖の怖さは、1 つのプラットフォームの侵害が連鎖する OAuth スコープの先まで波及することにある。Vercel から GitHub への OAuth、Vercel から Slack への通知、Vercel から PostHog / Sentry へのテレメトリなど、SaaS は相互の API キーや OAuth トークンを抱えやすい。露出した encrypted env に他 SaaS の API キーが含まれていれば、被害は当該 SaaS にも広がる。
運用面では 4 つの原則を組み合わせる。
Vercel のような大規模プラットフォームほど、利用側の鍵分離と最小権限設計が問われる。ベンダー侵害時に自社が能動的に被害範囲を縮められる構成を作っておくことが本質的な防御になる。

AI コーディングエージェントは生産性を上げる一方で、新しい攻撃ベクトルになり得る。プロンプトインジェクション経由でエージェントが依存改変・コード混入を実行するリスクが現実化している。 本章ではエージェント経由の攻撃チェーンと、開発者ワークフローでの権限境界の設計を整理する。
AI コーディングエージェント (Claude / GPT / Gemini を裏で使うエージェント製品) は、コード生成だけでなく、ツール呼び出しによる package.json 編集、ファイル作成、pnpm add 実行、git コミットまで自動化する設計が一般化している。これにより、エージェントが読み込んだ「外部のテキスト」がそのまま命令として実行される 間接プロンプトインジェクションが成立する経路が増える (出典: OWASP Top 10 for LLM Applications LLM01: Prompt Injection)。
具体的なシナリオは 3 つある。
node_modules 内 README やコメントに、追加パッケージのインストールを促す指示が混入している。OWASP LLM Top 10 の LLM01 (Prompt Injection) と LLM02 (Insecure Output Handling) が組み合わさることで成立する攻撃であり、モデル単体の安全策では防げない。エージェントを開発フローに組み込むほど、外部入力 → 依存改変の経路が広がる構造になる。
AI コーディングエージェントを安全に運用するには、エージェントの権限を「コード生成のみ」と「副作用 (パッケージ追加・コミット・デプロイ) を伴う操作」に分けて設計する必要がある。実装パターンとしては次の 4 点を組み合わせる。
pnpm add / npm install / pip install など依存追加コマンドは、エージェントが提案して開発者が承認する 2 段階フローに固定する。CI でも --frozen-lockfile を強制し、新規依存はレビュー必須にする。これらは生産性を多少犠牲にするが、AI コーディングエージェントが大規模に組織に浸透するほど必要性が高まる設計である。エージェントの利便性をフル開放したまま供給網に組み込むのは、tj-actions のような第三者 Action を SHA pin なしで参照するのと同じ構造のリスクを抱えることになる。

AI 開発のサプライチェーン防御は単一のツールでは完結しない。AI BOM・モデルカード検証・最小権限 OAuth・Sensitive シークレット運用・CI/CD 隔離・監査証跡を組み合わせた多層防御が現実的である。 本章では実装パターンを 2 グループに分けて整理する。
AI BOM (AI Bill of Materials) は、従来の SBOM を AI 構成要素 (モデル重み / データセット / 推論ランタイム / 評価データ) に拡張したものである。CycloneDX の AI/ML BOM 拡張、OWASP AI Exchange、SPDX 3.0 の ML profile が業界標準として整備が進んでいる (出典: CycloneDX Specification 1.5 以降, OWASP AI Exchange, SPDX 3.0)。
実装ステップは 4 段階で進める。
AI BOM を整備しておくと、新たなモデル汚染や依存改変が公表された際に「自社が影響を受けるか」を BOM から逆引きできる。インシデント対応の初動時間が大幅に縮まる。
もう一段の防御として、SaaS 連鎖と運用工程の制御を以下の 4 点で固める。
これら 4 点は、1 つの SaaS が侵害されても被害が組織全体に波及しないようにする最後のブレーカーになる。ベンダー固有の対策ではなく、組織共通の運用ルールとして定着させることが重要だ。

AI 開発のサプライチェーンは、従来の「コード + 依存パッケージ」の 2 層から、「公開モデル + 依存パッケージ + SaaS DevOps + AI エージェント」の 4 層に拡張された。Hugging Face の Pickle 任意コード実行、tj-actions の改ざん、xz utils の多段バックドア、Vercel 2026 年 4 月インシデントは、いずれもこの拡張された供給網のどこかが侵害された結果である。
防御は単一の解では成立しない。経路ごとに対策を整理すると次のようになる。
本記事の 4 経路の枠組みで分類し、自社で足りない層を特定して埋めていくことが、組織の AI 開発を 2026 仕様に更新する近道となる。当社では本記事のチェック観点を AI 開発組織向けの社内監査テンプレートに展開し、ベンダーから侵害告知を受けた際の即応ロールブックとあわせて運用している。

Yusuke Ishihara
13歳でMSXに触れプログラミングを開始。武蔵大学卒業後、航空会社の基幹システム開発や日本初のWindowsサーバホスティング・VPS基盤構築など、大規模システム開発に従事。 2008年にサイトエンジン株式会社を共同創業。2010年にユニモン株式会社、2025年にエニソン株式会社を設立し、業務システム・自然言語処理・プラットフォーム開発をリード。 現在は生成AI・大規模言語モデル(LLM)を活用したプロダクト開発およびAI・DX推進を手がける。