เทคนิคการนำผลลัพธ์จาก LLM มาตรวจสอบเทียบกับแหล่งข้อมูลภายนอกหรือผลการค้นหา เพื่อสร้างคำตอบที่อิงข้อเท็จจริง ถือเป็นวิธีหลักในการลด Hallucination
## Grounding คืออะไร Grounding คือเทคนิคการนำผลลัพธ์จาก LLM ไปตรวจสอบเทียบกับแหล่งข้อมูลภายนอกที่เชื่อถือได้ เพื่อให้โมเดลสร้างคำตอบที่อิงข้อเท็จจริง ถือเป็นแนวทางหลักในการลด Hallucination (คำตอบที่ฟังดูน่าเชื่อถือแต่ไม่ตรงกับความเป็นจริง) ### RAG คือวิธีการนำ Grounding ไปใช้งาน RAG (Retrieval-Augmented Generation) เป็นวิธีที่พบบ่อยที่สุดในการทำ Grounding โดยค้นหาข้อมูลที่เกี่ยวข้องจากฐานข้อมูลหรือเอกสารภายนอก แล้วส่งข้อมูลนั้นไปยังโมเดลในรูปแบบ Context ซึ่งช่วยให้โมเดลสามารถระบุได้ง่ายขึ้นว่า "ไม่รู้ในสิ่งที่ตนเองไม่รู้" อย่างไรก็ตาม การใช้ RAG เพียงอย่างเดียวไม่ได้หมายความว่า Grounding จะสมบูรณ์ หากคุณภาพของผลลัพธ์การค้นหาต่ำ ก็มีความเสี่ยงที่โมเดลจะถูก Ground กับข้อมูลที่ผิดพลาดได้ ### โครงสร้างหลายชั้นของ Grounding Grounding ที่มีประสิทธิภาพจะถูกสร้างขึ้นจากหลายชั้น ดังนี้ 1. **ชั้นการค้นหา (Retrieval Layer)**: ดึงข้อมูลที่เกี่ยวข้องด้วย Vector Search หรือ Knowledge Graph 2. **ชั้นการตรวจสอบ (Validation Layer)**: ประเมินความใหม่และความน่าเชื่อถือของข้อมูลที่ดึงมา 3. **ชั้นการสร้างคำตอบ (Generation Layer)**: แนบการอ้างอิงแหล่งที่มาในคำตอบเพื่อให้สามารถตรวจสอบได้ 4. **ชั้นผลลัพธ์ (Output Layer)**: ตรวจสอบความถูกต้องของข้อเท็จจริงขั้นสุดท้ายด้วย Guardrail ### ผลลัพธ์ในการใช้งานจริง เพียงแค่ "ให้โมเดลตอบพร้อมแหล่งอ้างอิง" ก็สามารถลดอัตรา Hallucination ได้อย่างมีนัยสำคัญ อย่างไรก็ตาม เนื่องจาก LLM อาจปลอมแปลงแหล่งอ้างอิงได้ จึงเป็นที่พึงประสงค์ให้ออกแบบระบบให้ครอบคลุมกลไกการตรวจสอบในขั้นตอน Post-processing ด้วยว่า URL ของแหล่งอ้างอิงนั้นมีอยู่จริงหรือไม่


ฮาลูซิเนชัน (Hallucination) คือปรากฏการณ์ที่ AI model สร้างข้อมูลที่ไม่มีข้อเท็จจริงรองรับ โดยนำเสนอราวกับว่าเป็นข้อมูลที่ถูกต้อง ซึ่งมีสาเหตุมาจากกลไกที่ LLM ใช้ในการสร้างข้อความที่ "น่าเชื่อถือ" จากรูปแบบของข้อมูลที่ใช้ในการเรียนรู้ และถือว่าเป็นเรื่องยากที่จะกำจัดออกไปได้อย่างสมบูรณ์

RAG (Retrieval-Augmented Generation) คือเทคนิคที่ทำการค้นหาข้อมูลที่เกี่ยวข้องจากแหล่งความรู้ภายนอก แล้วนำผลลัพธ์ที่ได้มาเพิ่มเติมใน input ของ LLM เพื่อเพิ่มความแม่นยำและความทันสมัยของคำตอบ

RLHF คือวิธีการเรียนรู้เสริมแรง (Reinforcement Learning) ที่ใช้ข้อเสนอแนะจากมนุษย์เป็นรางวัล ส่วน RLVR คือวิธีการเรียนรู้เสริมแรงที่ใช้คำตอบที่ตรวจสอบได้เป็นรางวัล โดยทั้งสองวิธีถูกนำมาใช้เพื่อปรับผลลัพธ์ของ LLM ให้สอดคล้องกับความคาดหวังของมนุษย์
