เทคนิคการนำผลลัพธ์จาก LLM มาตรวจสอบเทียบกับแหล่งข้อมูลภายนอกหรือผลการค้นหา เพื่อสร้างคำตอบที่อิงข้อเท็จจริง ถือเป็นวิธีหลักในการลด Hallucination
Grounding คือเทคนิคการนำผลลัพธ์จาก LLM ไปตรวจสอบเทียบกับแหล่งข้อมูลภายนอกที่เชื่อถือได้ เพื่อให้โมเดลสร้างคำตอบที่อิงข้อเท็จจริง ถือเป็นแนวทางหลักในการลด Hallucination (คำตอบที่ฟังดูน่าเชื่อถือแต่ไม่ตรงกับความเป็นจริง)
RAG (Retrieval-Augmented Generation) เป็นวิธีที่พบบ่อยที่สุดในการทำ Grounding โดยค้นหาข้อมูลที่เกี่ยวข้องจากฐานข้อมูลหรือเอกสารภายนอก แล้วส่งข้อมูลนั้นไปยังโมเดลในรูปแบบ Context ซึ่งช่วยให้โมเดลสามารถระบุได้ง่ายขึ้นว่า "ไม่รู้ในสิ่งที่ตนเองไม่รู้"
อย่างไรก็ตาม การใช้ RAG เพียงอย่างเดียวไม่ได้หมายความว่า Grounding จะสมบูรณ์ หากคุณภาพของผลลัพธ์การค้นหาต่ำ ก็มีความเสี่ยงที่โมเดลจะถูก Ground กับข้อมูลที่ผิดพลาดได้
Grounding ที่มีประสิทธิภาพจะถูกสร้างขึ้นจากหลายชั้น ดังนี้
เพียงแค่ "ให้โมเดลตอบพร้อมแหล่งอ้างอิง" ก็สามารถลดอัตรา Hallucination ได้อย่างมีนัยสำคัญ อย่างไรก็ตาม เนื่องจาก LLM อาจปลอมแปลงแหล่งอ้างอิงได้ จึงเป็นที่พึงประสงค์ให้ออกแบบระบบให้ครอบคลุมกลไกการตรวจสอบในขั้นตอน Post-processing ด้วยว่า URL ของแหล่งอ้างอิงนั้นมีอยู่จริงหรือไม่


ฮาลูซิเนชัน (Hallucination) คือปรากฏการณ์ที่ AI model สร้างข้อมูลที่ไม่มีข้อเท็จจริงรองรับ โดยนำเสนอราวกับว่าเป็นข้อมูลที่ถูกต้อง ซึ่งมีสาเหตุมาจากกลไกที่ LLM ใช้ในการสร้างข้อความที่ "น่าเชื่อถือ" จากรูปแบบของข้อมูลที่ใช้ในการเรียนรู้ และถือว่าเป็นเรื่องยากที่จะกำจัดออกไปได้อย่างสมบูรณ์

RAG (Retrieval-Augmented Generation) คือเทคนิคที่ทำการค้นหาข้อมูลที่เกี่ยวข้องจากแหล่งความรู้ภายนอก แล้วนำผลลัพธ์ที่ได้มาเพิ่มเติมใน input ของ LLM เพื่อเพิ่มความแม่นยำและความทันสมัยของคำตอบ

กลไกความปลอดภัยที่ตรวจสอบอินพุตและเอาต์พุตของ LLM เพื่อตรวจจับและบล็อกเนื้อหาที่เป็นอันตราย การรั่วไหลของข้อมูลที่เป็นความลับ และการละเมิดนโยบายโดยอัตโนมัติ


ฐานข้อมูลเวกเตอร์คืออะไร? อธิบายครบจบ ตั้งแต่หลักการทำงาน เปรียบเทียบผลิตภัณฑ์หลัก ไปจนถึงการใช้งาน RAG