EU AI Act(EU 人工知能規則)とは、AI システムのリスクレベルに応じた法的義務を定めた欧州連合の包括的規制である。AI を「許容できないリスク」「高リスク」「限定リスク」「最小リスク」の 4 段階に分類し、リスクが高いほど厳格な要件を課す。
## 世界初の包括的 AI 規制 EU AI Act は AI を対象とした世界初の包括的な法的枠組みとして成立した。GDPR がデータ保護の国際標準を事実上定めたように、AI 規制の領域でも EU がグローバルスタンダードを先行して形成する「ブリュッセル効果」が期待されている。EU 域内で AI システムを提供または利用する事業者が対象であり、EU 域外の企業であっても、その AI の出力が EU 市民に影響を与える場合は適用される。
日本やタイの企業でも、EU 向けにサービスを提供するなら無関係ではいられない。## リスク分類の考え方 4 段階のリスク分類が規制の骨格だ。「許容できないリスク」に分類された AI は原則禁止される。
ソーシャルスコアリング(市民の行動を点数化するシステム)や、公共空間でのリアルタイム顔認識がこれに該当する。「高リスク」は採用選考、信用審査、医療機器など、人の権利や安全に直接影響する領域で使われる AI が対象だ。技術文書の整備、データガバナンス、人間による監視体制の構築が義務づけられる。
汎用 AI モデル(GPT、Claude など)の提供者には別途の透明性義務が課される。学習データの概要開示、著作権法の遵守、技術文書の公開などが求められる。## 他の規制との関係 AI ガバナンスの文脈では、EU AI Act は唯一の規制ではない。
タイの PDPA はデータ保護の観点から AI の入出力データを規制し、日本の AI 事業者ガイドラインはソフトローとして事業者の自主的な取り組みを促す。企業の実務としては、これらの規制を個別に対応するのではなく、AIガバナンスの統合的なフレームワークを構築し、各規制の要件をマッピングするアプローチが効率的だ。

