ธรรมาภิบาล AI คือนโยบาย กระบวนการ และกลไกการกำกับดูแลขององค์กรที่รับรองจริยธรรม ความโปร่งใส และความรับผิดชอบในการพัฒนาและดำเนินการระบบ AI
เมื่อ AI ถูกใช้ในการตัดสินใจทางธุรกิจมากขึ้น คำถามอย่าง "AI ตัดสินใจแบบนี้เพราะอะไร?" "มีอคติหรือไม่?" และ "ใครรับผิดชอบ?" ก็หลีกเลี่ยงไม่ได้ ธรรมาภิบาล AI คือกรอบการทำงานที่เตรียมคำตอบสำหรับคำถามเหล่านี้จากทั้งมุมเทคนิคและสถาบัน ครอบคลุมถึงการตรวจสอบอคติในข้อมูลฝึก การรับประกันความสามารถในการอธิบายผลลัพธ์ (Explainability) การแทรกแซงของมนุษย์ในการตัดสินใจขั้นสุดท้าย (Human-in-the-Loop) และการแบ่งความรับผิดชอบเมื่อเกิดเหตุการณ์ กรอบการทำงานกำลังถูกพัฒนาในหลายภูมิภาค ทั้ง EU AI Act, แนวปฏิบัติ AI ของญี่ปุ่น และ NIST AI RMF การนำไปใช้ในองค์กรต้องการมากกว่าแค่นโยบาย ต้องมีการจัดการ Model Card กระบวนการประเมินความเสี่ยง และการตรวจสอบความเป็นธรรมเป็นระยะ สำหรับบริษัทที่นำ AI มาใช้ในประเทศไทยและอาเซียน การรับรองความสอดคล้องกับ PDPA (พ.ร.บ. คุ้มครองข้อมูลส่วนบุคคล) ก็เป็นประเด็นสำคัญในทางปฏิบัติ ด้านเทคนิค วิธีการตรวจจับอคติเชิงปริมาณ (Fairness Metrics) และการแสดงผลเหตุผลการตัดสินใจ (SHAP, LIME) อยู่ในขั้นใช้งานจริงแล้ว


AI แชทบอท คือซอฟต์แวร์ที่ใช้การประมวลผลภาษาธรรมชาติ (NLP) และ LLM เพื่อดำเนินการสนทนากับมนุษย์โดยอัตโนมัติ แตกต่างจากแชทบอทแบบ Rule-based ทั่วไป ตรงที่สามารถเข้าใจบริบทและตอบสนองต่อคำถามที่ไม่ได้กำหนดไว้ล่วงหน้าได้

แอมเบียนต์ AI (Ambient AI) หมายถึงระบบ AI ที่ฝังตัวอยู่ในสภาพแวดล้อมของผู้ใช้อย่างถาวร โดยสามารถตรวจสอบข้อมูลจากเซนเซอร์และเหตุการณ์ต่าง ๆ รวมถึงดำเนินการเชิงรุกได้โดยไม่ต้องรอคำสั่งที่ชัดเจนจากผู้ใช้

AI Agent คือระบบ AI ที่วางแผนและดำเนินงานอย่างอิสระเพื่อบรรลุเป้าหมายที่กำหนด โดยสามารถเรียกใช้ external tools ต่างๆ ในระหว่างการทำงานได้

AI Governance คืออะไร? คู่มือปฏิบัติจาก EU AI Act สู่การจัดระเบียบกฎภายในองค์กร

Context Engineering คือสาขาวิชาที่ว่าด้วยการออกแบบและปรับแต่งบริบท (Context) ที่ป้อนให้กับ AI Model อย่างเป็นระบบ ไม่ว่าจะเป็นโครงสร้างของ Codebase, ประวัติ Commit, เจตนาในการออกแบบ (Design Intent) และความรู้เฉพาะด้าน (Domain Knowledge)