EU AI Act (กฎระเบียบปัญญาประดิษฐ์ของสหภาพยุโรป) คือกฎระเบียบครอบคลุมของสหภาพยุโรปที่กำหนดภาระผูกพันทางกฎหมายตามระดับความเสี่ยงของระบบ AI โดยจำแนก AI ออกเป็น 4 ระดับ ได้แก่ "ความเสี่ยงที่ยอมรับไม่ได้" "ความเสี่ยงสูง" "ความเสี่ยงจำกัด" และ "ความเสี่ยงต่ำสุด" โดยยิ่งมีความเสี่ยงสูงเท่าใด ก็จะยิ่งถูกกำหนดข้อกำหนดที่เข้มงวดมากขึ้นเท่านั้น
## กฎระเบียบ AI ที่ครอบคลุมที่สุดเป็นครั้งแรกของโลก EU AI Act ได้รับการบัญญัติขึ้นในฐานะกรอบกฎหมายที่ครอบคลุมเป็นครั้งแรกของโลกที่มุ่งเป้าไปที่ AI โดยเฉพาะ เช่นเดียวกับที่ GDPR ได้กำหนดมาตรฐานสากลด้านการคุ้มครองข้อมูลโดยพฤตินัย จึงมีความคาดหวังว่า EU จะเป็นผู้นำในการกำหนด Global Standard ในด้านกฎระเบียบ AI ล่วงหน้า ซึ่งเรียกว่า "Brussels Effect" ผู้ประกอบการที่ให้บริการหรือใช้งานระบบ AI ภายในเขต EU ตกอยู่ภายใต้ขอบเขตการบังคับใช้ และแม้แต่บริษัทที่ตั้งอยู่นอกเขต EU ก็ยังอยู่ภายใต้กฎหมายนี้ หากผลลัพธ์จาก AI ดังกล่าวส่งผลกระทบต่อพลเมือง EU บริษัทจากญี่ปุ่นหรือไทยที่ให้บริการแก่กลุ่มผู้ใช้ใน EU ก็ไม่อาจหลีกเลี่ยงกฎหมายนี้ได้เช่นกัน ## แนวคิดการจำแนกประเภทความเสี่ยง การจำแนกประเภทความเสี่ยง 4 ระดับเป็นโครงกระดูกสันหลังของกฎระเบียบนี้ AI ที่ถูกจัดอยู่ในประเภท "ความเสี่ยงที่ยอมรับไม่ได้" จะถูกห้ามใช้งานโดยหลักการ ซึ่งรวมถึง Social Scoring (ระบบที่ให้คะแนนพฤติกรรมของประชาชน) และการจดจำใบหน้าแบบ Real-time ในพื้นที่สาธารณะ "ความเสี่ยงสูง" ครอบคลุม AI ที่ใช้ในด้านที่ส่งผลกระทบโดยตรงต่อสิทธิและความปลอดภัยของบุคคล เช่น กระบวนการคัดเลือกพนักงาน การพิจารณาสินเชื่อ และอุปกรณ์ทางการแพทย์ โดยมีข้อบังคับให้จัดทำเอกสารทางเทคนิค กำกับดูแลข้อมูล และสร้างกลไกการกำกับดูแลโดยมนุษย์ ผู้ให้บริการ Generative AI Model (เช่น GPT, Claude) จะต้องปฏิบัติตามภาระผูกพันด้านความโปร่งใสแยกต่างหาก ได้แก่ การเปิดเผยภาพรวมของข้อมูลที่ใช้ในการฝึกสอน การปฏิบัติตามกฎหมายลิขสิทธิ์ และการเผยแพร่เอกสารทางเทคนิค ## ความสัมพันธ์กับกฎระเบียบอื่น ๆ ในบริบทของ AI Governance นั้น EU AI Act ไม่ใช่กฎระเบียบเพียงฉบับเดียว PDPA ของไทยกำกับดูแลข้อมูลนำเข้าและส่งออกของ AI จากมุมมองการคุ้มครองข้อมูล ในขณะที่แนวปฏิบัติสำหรับผู้ประกอบการ AI ของญี่ปุ่นทำหน้าที่เป็น Soft Law ที่ส่งเสริมให้ผู้ประกอบการดำเนินการด้วยความสมัครใจ ในเชิงปฏิบัติสำหรับองค์กร แนวทางที่มีประสิทธิภาพคือการสร้าง Framework แบบบูรณาการสำหรับ AI Governance และทำการ Mapping ข้อกำหนดของแต่ละกฎระเบียบ แทนที่จะรับมือกับกฎระเบียบแต่ละฉบับแยกกัน


ธรรมาภิบาล AI คือนโยบาย กระบวนการ และกลไกการกำกับดูแลขององค์กรที่รับรองจริยธรรม ความโปร่งใส และความรับผิดชอบในการพัฒนาและดำเนินการระบบ AI

PDPA (Personal Data Protection Act) คือกฎหมายที่ควบคุมการเก็บรวบรวม การใช้ การจัดเก็บ และการโอนข้อมูลส่วนบุคคลในประเทศไทย ซึ่งเปรียบได้กับกฎหมายคุ้มครองข้อมูลของไทยที่มีลักษณะเทียบเท่า GDPR ของสหภาพยุโรป
