AIの基本概念・限界・リスクを理解し、業務で適切に活用するための知識とスキル。EU AI Actで組織への確保が義務化。
AI リテラシー(AI Literacy)とは、AI の基本概念、能力と限界、リスクと倫理的論点を理解し、業務や日常で AI を適切に活用するための知識とスキルの総称である。
AI リテラシーはエンジニアだけのものではない。営業担当が生成 AI の出力をそのまま顧客に送ってしまう、経理担当が AI の集計結果を検証せず報告に載せる——こうしたリスクは技術力ではなく「AI の限界を知っているか」で防げる。
EU AI Act は 2025 年 2 月から AI リテラシーの確保を組織に義務付けた。AI システムの提供者と利用者は、従業員が AI の基本的なリスクを理解した状態で業務にあたれるよう、教育体制を整える必要がある。
全社員を AI エンジニアにする必要はない。実務で有効なのは三段階のアプローチだ。
レベル 1(全社員): AI にできること・できないことの理解、ハルシネーションの存在、機密情報の入力リスク
レベル 2(部門リーダー): AI 活用の業務設計、ROI の評価、ベンダー選定の基礎知識
レベル 3(推進担当): プロンプトエンジニアリング、RAG 構築、評価指標の設計
レベル 1 を半日の研修で全社に展開し、レベル 2・3 は希望者に段階的に——この設計が最も ROI が高いと筆者は考えている。


EU AI Act(EU 人工知能規則)とは、AI システムのリスクレベルに応じた法的義務を定めた欧州連合の包括的規制である。AI を「許容できないリスク」「高リスク」「限定リスク」「最小リスク」の 4 段階に分類し、リスクが高いほど厳格な要件を課す。

AI ガバナンスとは、AI システムの開発・運用において、倫理性・透明性・説明責任を確保するための組織的な方針・プロセス・監視体制の総称である。

特定の業務役割を担い、人間の従業員と同様に継続的にタスクを遂行する自律型AIエージェントのこと。単発の指示応答ではなく、職務として責任範囲を持つ点が従来のAIアシスタントと異なる。


【2026】AI サイバーセキュリティの最新動向
AIエージェントとは、与えられた目標に対して自律的に計画を立て、外部ツールを呼び出しながらタスクを遂行するAIシステムのことである。