กลไกความปลอดภัยที่ตรวจสอบอินพุตและเอาต์พุตของ LLM เพื่อตรวจจับและบล็อกเนื้อหาที่เป็นอันตราย การรั่วไหลของข้อมูลที่เป็นความลับ และการละเมิดนโยบายโดยอัตโนมัติ
## ガードレールคืออะไร ガードレール (AI Guardrails) คือกลไกความปลอดภัยโดยรวมที่ทำหน้าที่ตรวจสอบ input และ output ของ LLM เพื่อตรวจจับและบล็อกการสร้างเนื้อหาที่เป็นอันตราย การรั่วไหลของข้อมูลที่เป็นความลับ และการละเมิดนโยบายโดยอัตโนมัติ เปรียบเสมือนกันชนข้างถนนที่ป้องกันไม่ให้รถออกนอกเส้นทาง ガードレール ทำหน้าที่จำกัดพฤติกรรมของ AI ให้อยู่ในขอบเขตที่ยอมรับได้ ### ฝั่ง Input และฝั่ง Output ガードレール ทำงานใน 2 เลเยอร์หลัก **Input Guardrails**: ตรวจสอบ input ของผู้ใช้ก่อนที่จะถึง model ครอบคลุมการตรวจจับ Prompt Injection การ masking ข้อมูลส่วนบุคคล (PII) และการจำกัดหัวข้อ (บล็อกคำถามที่อยู่นอกเหนือขอบเขตงาน) เป็นต้น **Output Guardrails**: ตรวจสอบการตอบสนองของ model ก่อนที่จะส่งกลับไปยังผู้ใช้ ดำเนินการกรองนิพจน์ที่เป็นอันตราย การตรวจสอบความถูกต้องของข้อเท็จจริง (Grounding) และการตรวจสอบการรั่วไหลของข้อมูลที่เป็นความลับ เป็นต้น ### แนวทางการ Implementation โดยทั่วไปจะใช้การผสมผสานระหว่าง Rule-based (Regular Expression, Keyword List) และ ML-based (Classification Model, การประเมินโดย LLM อื่น) การออกแบบ ガードレール ให้สอดคล้องกับหมวดหมู่ความเสี่ยงที่ระบุโดย OWASP LLM Top 10 จะช่วยเพิ่มความครอบคลุม ### ข้อควรระวังในการดำเนินงาน ガードレール ที่มากเกินไปจะส่งผลเสียต่อประสบการณ์ของผู้ใช้ หาก "False Positive" ที่คำถามทางธุรกิจที่ถูกต้องถูกบล็อกโดยผิดพลาดเกิดขึ้นบ่อยครั้ง ผู้ใช้จะเลิกใช้เครื่องมือ AI การปรับ Threshold และการให้ Feedback ที่โปร่งใสเกี่ยวกับเหตุผลในการบล็อกถือเป็นกุญแจสำคัญในการดำเนินงาน


แอมเบียนต์ AI (Ambient AI) หมายถึงระบบ AI ที่ฝังตัวอยู่ในสภาพแวดล้อมของผู้ใช้อย่างถาวร โดยสามารถตรวจสอบข้อมูลจากเซนเซอร์และเหตุการณ์ต่าง ๆ รวมถึงดำเนินการเชิงรุกได้โดยไม่ต้องรอคำสั่งที่ชัดเจนจากผู้ใช้

การทดสอบแบบ Unit Test คือวิธีการทดสอบที่ตรวจสอบหน่วยย่อยที่สุดของโปรแกรม เช่น ฟังก์ชันหรือเมธอด เป็นรายการ โดยแทนที่การพึ่งพาภายนอกด้วย Mock เพื่อให้สามารถตรวจสอบเฉพาะ Logic ที่ต้องการได้อย่างรวดเร็ว
