
タイで事業を展開しながら AI を導入する企業にとって、個人情報保護法(PDPA)への対応は避けて通れない。PDPA 違反には最大 500 万バーツの罰金と懲役刑が科される可能性があり、規制当局の執行も強化の一途をたどっている。本記事では、データ収集・処理・保管の各段階で AI 活用とコンプライアンスを両立させるためのチェックリストを提供する。情報システム担当者・法務担当者・経営層が、自社の AI 施策を点検する際の実務的な指針として活用してほしい。
免責事項: 本記事は情報提供を目的としており、法的助言を構成するものではありません。具体的な対応については、タイ法に精通した弁護士または法律事務所にご相談ください。
タイの個人情報保護法(PDPA: Personal Data Protection Act B.E. 2562)は、タイにおける個人データの収集・利用・開示に包括的なルールを定めた法律だ。AI システムは大量の個人データを処理するため、PDPA の規定と直接的に関わる場面が多い。まずは適用範囲と、AI 運用で特に意識すべき義務を整理する。
PDPA は、タイ国内で個人データを収集・利用・開示するすべての組織に適用される。タイ国外の事業者であっても、タイ国内のデータ主体に商品・サービスを提供する場合や、タイ国内の行動を監視する場合は適用対象となる。
適用対象の判断チェックリスト:
上記のいずれかに該当すれば、PDPA の適用を受ける可能性が高い。
罰則の概要:
| 種別 | 上限 |
|---|---|
| 行政罰金 | 最大 500 万バーツ |
| 刑事罰金 | 最大 500 万バーツ |
| 懲役 | 最大 1 年 |
| 民事損害賠償 | 実損害額の最大 2 倍 |
PDPC(個人情報保護委員会)は執行姿勢を強めており、セキュリティ対策の不備、DPO(データ保護責任者)の未設置、委託先との契約不備、データ漏洩時の報告遅延が主な摘発理由となっている。「まだ見つからないだろう」という認識は、もはや通用しない段階に入っている。
AI システムを運用する際に特に注意すべき PDPA 上の義務は以下の 6 つだ。
1. 適法な収集根拠の確保
個人データの収集には、同意または法定の例外事由(契約履行、正当利益、法的義務等)が必要になる。AI の学習データとして利用する場合も、収集時の目的に合致しているか確認が求められる。
2. 目的の特定と利用制限
収集した個人データは、事前に通知した目的の範囲内でのみ利用できる。「AI モデルの学習」が当初の収集目的に含まれていなければ、追加の同意取得が必要になる。
3. データ主体への通知義務
データ管理者は、収集の目的、保管期間、データ主体の権利などを事前に通知しなければならない。AI による処理が含まれる場合は、その旨をプライバシーポリシーに明記すべきだ。
4. センシティブデータの厳格な管理
人種、民族、政治的見解、宗教、生体認証データ、健康情報などのセンシティブデータは、明示的な同意なく収集できない。AI で顔認証や音声認識を用いる場合、この規定に直接抵触する可能性がある。
5. データ処理者との契約義務(第 40 条)
外部の AI サービスプロバイダーにデータ処理を委託する場合、PDPA の要件を盛り込んだ書面契約が必要になる。処理の範囲、セキュリティ措置、データ漏洩時の報告義務を明確に定めなければならない。
6. セキュリティ措置の実装
個人データの漏洩・紛失・不正アクセスを防ぐための技術的・組織的措置が義務付けられている。AI モデルが大量の個人データを保持する場合、暗号化やアクセス制御の実装は不可欠だ。

AI プロジェクトの出発点はデータ収集だ。PDPA では「収集時の適法性」がすべての後続処理の基盤となるため、ここで不備があると後工程でいくら対策を講じても法的リスクが残り続ける。
チェックリスト:
NG 例: 利用規約の末尾に「AI 処理を含むデータ分析に同意します」のチェックボックスを埋め込む。PDPA では同意は「明確に区別された形式」で取得する必要があり、同意条項を他の条項と混在させると有効性が否定されるリスクがある。
プライバシーポリシーへの記載事項:
プライバシーポリシーには最低限、以下を含めること。
AI モデルの学習に個人データを利用する場合、収集時の目的範囲内であるかどうかが最大の論点になる。
チェックリスト:
匿名化と仮名化の違い:
PDPA の文脈では、「匿名化」と「仮名化」を明確に区別する必要がある。
AI の学習データに仮名化データを使う場合は、引き続き PDPA の規定に従う必要がある。「ハッシュ化したから大丈夫」という判断は危険だ。ハッシュ値から元のデータを復元できなくても、他のデータと突合すれば再識別できるケースは少なくない。匿名化の十分性は、利用可能な技術や追加情報の入手可能性を考慮して慎重に評価すべきだ。

データを収集した後、AI による処理・分析フェーズに入る。ここでは、処理の範囲が収集時の目的を逸脱していないか、データ主体の権利を侵害していないかが焦点となる。
PDPA には、EU の GDPR 第 22 条のような「自動意思決定のみに基づく決定を拒否する権利」に相当する明確な規定はない。しかし、プロファイリングが完全に規制外というわけでもない。
チェックリスト:
PDPA 上の明示的な義務ではないものの、人間による最終判断の仕組みは説明責任(Accountability)の観点からも実務上のリスク軽減策として強く推奨される。GDPR には自動意思決定を拒否する権利が明文化されているため、将来的にタイでも同様の規定が導入される可能性は否定できない。先手を打って人間による監視体制を設計しておくことは、規制変更リスクへの備えにもなる。
なお、PDPC はプロファイリングを伴うデータ処理を行う事業者に DPO の設置を求めるガイドラインを公表している。AI によるプロファイリングを行う場合は、DPO の設置を前向きに検討すべきだ。
PDPA は、個人データの収集を「必要な範囲に限定」すべきと定めている。AI は大量のデータを投入するほど精度が上がる傾向があるため、この原則と衝突しやすい。
チェックリスト:
データ最小化と AI 精度を両立させるアプローチ:
「データは多いほど良い」という考え方が AI 開発では根強いが、すべてのデータ項目が均等に予測精度に寄与するわけではない。以下の技術的手法を組み合わせることで、個人情報の利用を抑えながらモデルの有用性を維持できる。
これらはいずれも技術的なトレードオフが伴う。精度要件とコンプライアンス要件のバランスは、ユースケースごとに個別に判断する必要がある。

AI モデルの運用が始まった後も、保管期間の管理とデータ主体の権利行使への対応が継続的に求められる。特に、クロスボーダーのデータ移転は規制が流動的なため、最新の動向を注視しなければならない。
保管期間のチェックリスト:
クロスボーダー移転のチェックリスト:
海外の AI サービス(クラウド API、SaaS 型 AI ツール等)を利用する場合、個人データが国外に移転される。PDPA 第 28 条・第 29 条に基づく対応が必要だ。
PDPC は十分性認定リストをまだ公表していない(執筆時点)。そのため、現時点では SCC または BCR の整備が実務上の標準的な対応となる。SCC については、ASEAN モデル契約条項や EU の標準契約条項をベースにタイ固有の要件(72 時間以内のデータ漏洩報告等)を追加する形式が一般的だ。
PDPA はデータ主体に複数の権利を認めている。AI システムを運用する場合、これらの権利行使にどう対応するかを事前に設計しておく必要がある。
チェックリスト:
AI 特有の課題 — 削除権と学習済みモデル:
学習済みの AI モデルから特定個人のデータを完全に除去する「Machine Unlearning」は、技術的に発展途上の分野だ。現実的な対応策としては以下が考えられる。
いずれの場合も、データ主体に対して対応内容と技術的な制約を誠実に説明することが重要だ。「できません」で終わらせるのではなく、代替策を提示した上で、データ主体が納得できる形で対応を進めるべきである。

チェックリストの主要項目に加えて、実務で見落とされがちな論点がある。特に、外部 AI サービスの利用と社内 AI ツールの監査は盲点になりやすい。
生成 AI サービスや画像認識・音声認識の API を業務に導入する場合、自社は「データ管理者(Data Controller)」、サービス提供者は「データ処理者(Data Processor)」となるケースが多い。
チェックリスト:
見過ごされがちなのが、従業員による日常的な生成 AI の利用だ。プロンプトに顧客の個人データを入力するケースは想像以上に多い。社内利用ガイドラインを策定し、個人データの入力ルール(禁止・匿名化必須等)を明文化しておくことが不可欠だ。「便利だから」と無意識に使い続けた結果、PDPC の調査で発覚する — そうなってからでは遅い。
PDPA は、データ管理者に対してデータ処理活動の記録義務を課している。AI ツールを社内で運用する場合、この記録義務をどう果たすかが実務上の課題になる。
チェックリスト:
監査ログは、PDPC からの調査要請やデータ主体からの権利行使要求に対応する際の証拠としても機能する。ログの保存期間は、最低でもデータ保管期間と同等に設定するのが安全だ。
実務的には、AI ツールの利用ログをすべて手動で管理するのは非現実的だ。API ゲートウェイやプロキシ層でリクエスト/レスポンスのメタデータ(タイムスタンプ、ユーザー ID、処理目的)を自動記録する仕組みを組み込むことを推奨する。

Q1: PDPA と GDPR の違いは何か?AI 活用の観点で注意すべき点は?
PDPA は GDPR を参考に制定されているが、いくつかの重要な違いがある。最大の相違点は、GDPR 第 22 条が定める「自動意思決定のみに基づく決定を拒否する権利」に相当する規定が PDPA には明示的に存在しないことだ。ただし、これは AI による自動処理が無制限に許容されることを意味しない。データ主体の異議申立権や、正当利益に基づく処理に対する反対権は PDPA にも存在するため、AI の運用設計では依然として慎重な対応が求められる。
Q2: 社員が業務で生成 AI に個人データを入力した場合、PDPA 違反になるか?
状況による。プロンプトに入力された個人データがサービス提供者のサーバーに送信される場合、それは個人データの「開示」に該当する可能性がある。収集時の目的に「外部 AI サービスでの処理」が含まれていなければ、目的外利用として PDPA 違反のリスクがある。対策としては、個人データの入力を禁止する社内ポリシーの策定、API 利用時のデータ匿名化、企業向けプランでのデータ不使用設定の有効化が挙げられる。
Q3: 匿名化すれば PDPA の適用外になるか?
完全に個人を特定できない状態にする「匿名化」が達成されていれば、PDPA の適用外となる。ただし、「仮名化」(追加情報と組み合わせれば特定可能な状態)は PDPA の適用内だ。単純なハッシュ化だけでは匿名化として不十分な場合がある。匿名化の十分性は、利用可能な技術や追加情報の入手可能性を考慮して個別に判断する必要がある。
Q4: タイ国外のクラウド AI サービスを利用する場合、どのような対応が必要か?
PDPA 第 28 条(十分性認定)または第 29 条(適切な保護措置)に基づく対応が必要となる。現時点では PDPC による十分性認定リストが未公表のため、実務的には標準契約条項(SCC)または拘束的企業準則(BCR)の整備が推奨される。AI サービスプロバイダーとの契約にデータ保護条項を盛り込み、データの処理場所、セキュリティ措置、データ漏洩報告のフローを明確にしておくことが重要だ。

タイの PDPA は、AI 活用を禁止するものではない。適切な法的根拠の確保、目的の明確化、データ主体の権利保護、そしてセキュリティ措置を講じることで、コンプライアンスと AI の利活用は十分に両立できる。
本記事で紹介したチェックリストの要点を改めて整理する。
PDPC の執行は年々強化されている。チェックリストを活用して定期的に自社の対応状況を点検し、法改正や新たなガイドラインにも迅速に追従する体制を構築してほしい。具体的な対応にあたっては、タイ法に精通した法律事務所に相談し、自社の状況に即したアドバイスを受けることを強く推奨する。
Yusuke Ishihara
13歳でMSXに触れプログラミングを開始。武蔵大学卒業後、航空会社の基幹システム開発や日本初のWindowsサーバホスティング・VPS基盤構築など、大規模システム開発に従事。 2008年にサイトエンジン株式会社を共同創業。2010年にユニモン株式会社、2025年にエニソン株式会社を設立し、業務システム・自然言語処理・プラットフォーム開発をリード。 現在は生成AI・大規模言語モデル(LLM)を活用したプロダクト開発およびAI・DX推進を手がける。