ເຕັກນິກທີ່ນຳໃຊ້ການຈັບຄູ່ຜົນຜະລິດຂອງ LLM ກັບແຫຼ່ງຂໍ້ມູນພາຍນອກ ຫຼື ຜົນການຄົ້ນຫາ ເພື່ອສ້າງຄຳຕອບທີ່ອີງໃສ່ຂໍ້ເທັດຈິງ. ເປັນວິທີການຫຼັກໃນການຫຼຸດຜ່ອນ Hallucination.
Grounding ແມ່ນເຕັກນິກທີ່ໃຊ້ກວດສອບຜົນລັບຂອງ LLM ກັບແຫຼ່ງຂໍ້ມູນພາຍນອກທີ່ເຊື່ອຖືໄດ້ ເພື່ອສ້າງຄຳຕອບທີ່ອີງໃສ່ຂໍ້ເທັດຈິງ. ວິທີການນີ້ຖືກຈັດວາງເປັນວິທີການຫຼັກໃນການຫຼຸດຜ່ອນ Hallucination (ຄຳຕອບທີ່ເບິ່ງໜ້າເຊື່ອຖືໄດ້ແຕ່ບໍ່ຕ່າງກັບຄວາມເປັນຈິງ).
RAG (Retrieval-Augmented Generation) ແມ່ນວິທີທົ່ວໄປທີ່ສຸດໃນການຈັດຕັ້ງປະຕິບັດ Grounding. ໂດຍການຄົ້ນຫາຂໍ້ມູນທີ່ກ່ຽວຂ້ອງຈາກຖານຂໍ້ມູນພາຍນອກຫຼືເອກະສານ ແລ້ວສົ່ງຂໍ້ມູນດັ່ງກ່າວໃຫ້ Model ເປັນ Context ຈຶ່ງເຮັດໃຫ້ Model ສາມາດຕັດສິນໄດ້ງ່າຍຂຶ້ນວ່າ "ສິ່ງທີ່ຕົນບໍ່ຮູ້ນັ້ນຕົນບໍ່ຮູ້".
ຢ່າງໃດກໍ່ຕາມ, Grounding ຈະບໍ່ສຳເລັດດ້ວຍ RAG ພຽງຢ່າງດຽວ. ຫາກຄຸນນະພາບຂອງຜົນການຄົ້ນຫາຕ່ຳ ກໍ່ມີຄວາມສ່ຽງທີ່ຈະເກີດ Grounding ກັບຂໍ້ມູນທີ່ຜິດພາດໄດ້.
Grounding ທີ່ມີປະສິດທິພາບຈະຖືກຈັດຕັ້ງປະຕິບັດໃນຫຼາຍຊັ້ນ.
ພຽງແຕ່ "ໃຫ້ຕອບພ້ອມກັບການອ້າງອີງແຫຼ່ງທີ່ມາ" ກໍ່ສາມາດຫຼຸດອັດຕາ Hallucination ໄດ້ຢ່າງຫຼວງຫຼາຍ. ຢ່າງໃດກໍ່ຕາມ ເນື່ອງຈາກ LLM ອາດຈະປອມແປງແຫຼ່ງອ້າງອີງໄດ້ ຈຶ່ງເປັນການດີທີ່ຈະອອກແບບລະບົບໃຫ້ຄອບຄຸມເຖິງກົນໄກການກວດສອບໃນຂັ້ນຕອນຫຼັງການປະມວນຜົນ (Post-processing) ວ່າ URL ຂອງແຫຼ່ງອ້າງອີງນັ້ນມີຢູ່ຈິງຫຼືບໍ່.


ຮາລູຊິເນຊັນ (Hallucination) ແມ່ນປະກົດການທີ່ AI model ສ້າງຂໍ້ມູນທີ່ບໍ່ອີງໃສ່ຄວາມເປັນຈິງ ຄືກັບວ່າຂໍ້ມູນນັ້ນຖືກຕ້ອງ. ປະກົດການນີ້ເກີດຈາກກົນໄກທີ່ LLM ສ້າງຂໍ້ຄວາມທີ່ "ໜ້າເຊື່ອຖື" ຈາກຮູບແບບຂໍ້ມູນການຝຶກສອນ, ເຊິ່ງເຮັດໃຫ້ການກຳຈັດອອກຢ່າງສົມບູນເປັນເລື່ອງຍາກ.

ການຄິດໄລ່ຫຼາຍຂັ້ນຕອນ (Multi-step Reasoning) ແມ່ນຮູບແບບການຄິດໄລ່ທີ່ LLM ບໍ່ໄດ້ສ້າງຄຳຕອບໃນຄັ້ງດຽວ ແຕ່ຜ່ານຂັ້ນຕອນກາງຫຼາຍຂັ້ນ (ເຊັ່ນ: ການສ້າງຄຳຖາມຍ່ອຍ, ການກວດສອບຄຳຕອບບາງສ່ວນ, ການດຶງຂໍ້ມູນເພີ່ມເຕີມ ແລະ ອື່ນໆ) ເພື່ອໄປເຖິງຄຳຕອບສຸດທ້າຍ.

ກົນໄກຄວາມປອດໄພທີ່ກວດສອບການນຳເຂົ້າແລະຜົນອອກຂອງ LLM ເພື່ອກວດຈັບແລະສະກັດກັ້ນເນື້ອຫາທີ່ເປັນອັນຕະລາຍ, ການຮົ່ວໄຫລຂອງຂໍ້ມູນລັບ, ແລະການລະເມີດນະໂຍບາຍໂດຍອັດຕະໂນມັດ.


ຖານຂໍ້ມູນ Vector ແມ່ນຫຍັງ? ຄູ່ມືຄົບຖ້ວນກ່ຽວກັບວິທີການເຮັດວຽກ, ການປຽບທຽບຜະລິດຕະພັນຊັ້ນນຳ, ແລະ ການນຳໃຊ້ RAG