
การประดิษฐ์ข้อมูลเท็จ (Hallucination)
ฮาลูซิเนชัน (Hallucination) คือปรากฏการณ์ที่ AI model สร้างข้อมูลที่ไม่มีข้อเท็จจริงรองรับ โดยนำเสนอราวกับว่าเป็นข้อมูลที่ถูกต้อง ซึ่งมีสาเหตุมาจากกลไกที่ LLM ใช้ในการสร้างข้อความที่ "น่าเชื่อถือ" จากรูปแบบของข้อมูลที่ใช้ในการเรียนรู้ และถือว่าเป็นเรื่องยากที่จะกำจัดออกไปได้อย่างสมบูรณ์











