RAG (Retrieval-Augmented Generation) ແມ່ນເຕັກນິກທີ່ປັບປຸງຄວາມຖືກຕ້ອງ ແລະ ຄວາມທັນສະໄໝຂອງຄຳຕອບ ໂດຍການຄົ້ນຫາຂໍ້ມູນທີ່ກ່ຽວຂ້ອງຈາກແຫຼ່ງຄວາມຮູ້ພາຍນອກ ແລ້ວນຳຜົນລັບທີ່ໄດ້ໄປເພີ່ມໃສ່ໃນ input ຂອງ LLM.
LLM ມີຄວາມຮູ້ພຽງແຕ່ຈົນເຖິງຈຸດທີ່ໄດ້ຮຽນຮູ້ມາເທົ່ານັ້ນ. ນອກຈາກນັ້ນ, ແມ່ນແຕ່ຄວາມຮູ້ທີ່ມີຢູ່, ກໍ່ຍັງສາມາດຕອບຜິດດ້ວຍຄວາມໝັ້ນໃຈ (hallucination). RAG ໄດ້ກາຍເປັນວິທີແກ້ໄຂທາງປະຕິບັດທີ່ໃຊ້ກັນແຜ່ຫຼາຍສຳລັບຈຸດອ່ອນທັງສອງນີ້. ກົນໄກຂອງມັນເຂົ້າໃຈງ່າຍ. ເມື່ອໄດ້ຮັບຄຳຖາມຈາກຜູ້ໃຊ້, ທຳອິດຈະຄົ້ນຫາເອກະສານທີ່ກ່ຽວຂ້ອງຈາກເອກະສານພາຍໃນອົງກອນ ຫຼື knowledge base. ຈາກນັ້ນ, ສົ່ງຜົນການຄົ້ນຫາພ້ອມກັບຄຳຖາມໄປຫາ LLM. LLM ຈະສ້າງຄຳຕອບໂດຍອ້າງອີງໃສ່ເອກະສານທີ່ສົ່ງມາ ບໍ່ພຽງແຕ່ຄວາມຮູ້ຂອງຕົນເອງເທົ່ານັ້ນ. ເນື່ອງຈາກສາມາດລະບຸແຫຼ່ງທີ່ມາໄດ້ຢ່າງຊັດເຈນ, ຈຶ່ງເຮັດໃຫ້ການກວດສອບຄຳຕອບເປັນໄປໄດ້ງ່າຍຂຶ້ນ. ເມື່ອແຍກອົງປະກອບທີ່ປະກອບເປັນ RAG ອອກ, ຈະປະກອບດ້ວຍ: ການປຸງແຕ່ງເອກະສານລ່ວງໜ້າ (chunk splitting), vector embedding, ການຄົ້ນຫາຄວາມຄ້າຍຄືກັນ (semantic search), ແລະ ການຈັດຮູບແບບ input ສຳລັບ LLM. ແຕ່ລະຂັ້ນຕອນມີທາງເລືອກຫຼາຍຢ່າງ, ແລະ ພຽງແຕ່ວິທີການຕັດ chunk ກໍ່ສາມາດສົ່ງຜົນຕໍ່ຄຸນນະພາບຂອງຄຳຕອບໄດ້ຢ່າງຫຼວງຫຼາຍ. ການເລືອກໃຊ້ລະຫວ່າງ RAG ກັບ fine-tuning ເປັນຫົວຂໍ້ທີ່ຖືກຖົກຖຽງກັນເລື້ອຍໆ, ແຕ່ທັງສອງມີບົດບາດທີ່ແຕກຕ່າງກັນ. RAG ແມ່ນວິທີ "ໃຫ້ໂມເດລອ້າງອີງຄວາມຮູ້ພາຍນອກ", ໃນຂະນະທີ່ fine-tuning ແມ່ນວິທີ "ປັບພຶດຕິກຳ ແລະ ໂທນຂອງໂມເດລ". ຖ້າຕ້ອງການໃຫ້ຕອບເນື້ອຫາຂອງຄູ່ມືພາຍໃນອົງກອນໄດ້ຢ່າງຖືກຕ້ອງ, RAG ຄືຈຸດເລີ່ມຕົ້ນທີ່ເໝາະສົມ; ຖ້າຕ້ອງການໃຫ້ຮູບແບບ ແລະ ສຳນວນຂອງຄຳຕອບເປັນເອກະພາບ, fine-tuning ຄືທາງເລືອກທີ່ຄວນພິຈາລະນາ. ໂຄງການຫຼາຍໆໂຄງການກໍ່ໃຊ້ທັງສອງວິທີຮ່ວມກັນ.


LLM (Large Language Model) ແມ່ນຊື່ເອີ້ນລວມຂອງໂມເດລ neural network ທີ່ມີພາລາມິເຕີຈຳນວນຫຼາຍພັນລ້ານຫາຫຼາຍລ້ານລ້ານຕົວ ຊຶ່ງໄດ້ຮັບການຝຶກອົບຮົມລ່ວງໜ້າດ້ວຍຂໍ້ມູນຂໍ້ຄວາມຈຳນວນຫຼວງຫຼາຍ ແລະ ສາມາດເຂົ້າໃຈ ແລະ ສ້າງພາສາທຳມະຊາດໄດ້ດ້ວຍຄວາມຖືກຕ້ອງສູງ.

ໂລກອລ LLM ແມ່ນຮູບແບບການດຳເນີນງານທີ່ດຳເນີນການໂມເດລພາສາຂະໜາດໃຫຍ່ໂດຍກົງເທິງເຊີບເວີ ຫຼື PC ຂອງຕົນເອງ ໂດຍບໍ່ຜ່ານ cloud API.

Agentic AI ແມ່ນຊື່ເອີ້ນລວມຂອງລະບົບ AI ທີ່ສາມາດຕີຄວາມໝາຍເປົ້າໝາຍ ແລະ ດຳເນີນການວາງແຜນ, ປະຕິບັດ, ແລະ ກວດສອບຢ່າງເປັນອິດສະຫຼະ ໂດຍບໍ່ຕ້ອງການຄຳແນະນຳລະອຽດຈາກມະນຸດໃນແຕ່ລະຂັ້ນຕອນ.

PEFT (Parameter-Efficient Fine-Tuning) ຄືຫຍັງ? ເທັກໂນໂລຊີທີ່ຫຼຸດຕົ້ນທຶນການປັບແຕ່ງ AI Model ລົງ 90%

LoRA (Low-Rank Adaptation) ແມ່ນວິທີການທີ່ແຊກເມທຣິກຊ໌ຄວາມແຕກຕ່າງ rank ຕ່ຳເຂົ້າໄປໃນເມທຣິກຊ໌ນ້ຳໜັກຂອງ large language model ແລ້ວຝຶກສອນສະເພາະຄວາມແຕກຕ່າງດັ່ງກ່າວ ເຊິ່ງຊ່ວຍໃຫ້ສາມາດດຳເນີນການ fine-tuning ໄດ້ໂດຍການເພີ່ມ parameter ພຽງປະມານ 0.1〜1% ຂອງ model ທັງໝົດ.