ເຕັກນິກການສ້າງ prompt ທີ່ເຮັດໃຫ້ LLM ສ້າງຂັ້ນຕອນກາງຂອງການຄິດວິເຄາະຢ່າງຊັດເຈນ ເພື່ອເພີ່ມຄວາມຖືກຕ້ອງໃນການແກ້ໄຂວຽກງານທີ່ສັບສົນ.
ການເຊື່ອມໂຍງຄວາມຄິດ (Chain of Thought, CoT) ແມ່ນເຕັກນິກ prompt ທີ່ໃຊ້ກັບ LLM ໂດຍການໃຫ້ສ້າງຂັ້ນຕອນການໃຫ້ເຫດຜົນລະຫວ່າງທາງຢ່າງຊັດເຈນ ເພື່ອເພີ່ມອັດຕາຄວາມຖືກຕ້ອງໃນການແກ້ໄຂວຽກງານທີ່ສັບສົນ.
ສຳລັບໂຈດ "ໝາກໂປມ 3 ໜ່ວຍ, ໝາກກ້ຽງ 5 ໜ່ວຍ. ລວມທັງໝົດເທົ່າໃດ?" ແທນທີ່ LLM ຈະຕອບ "8" ໂດຍກົງ, ເຮົາຊັກນຳໃຫ້ມັນສ້າງຂັ້ນຕອນລະຫວ່າງທາງວ່າ "ໝາກໂປມ 3 ໜ່ວຍ + ໝາກກ້ຽງ 5 ໜ່ວຍ = 8 ໜ່ວຍ". ສຳລັບການບວກທຳມະດານັ້ນຄວາມແຕກຕ່າງອາດຈະບໍ່ຊັດ, ແຕ່ສຳລັບໂຈດທີ່ຕ້ອງການການໃຫ້ເຫດຜົນຫຼາຍຂັ້ນຕອນ ຫຼື ມີການແຍກເງື່ອນໄຂ — ເຊັ່ນ: ການພິຈາລະນາຄວາມຄົບຖ້ວນຂອງຂໍ້ກຳນົດທາງກົດໝາຍ — ອັດຕາຄວາມຖືກຕ້ອງຈະດີຂຶ້ນຢ່າງຫຼວງຫຼາຍ.
ພຽງແຕ່ເພີ່ມ "ກະລຸນາຄິດທີລະຂັ້ນຕອນ" ໃສ່ໃນ prompt ກໍ່ມີຜົນແລ້ວ. ວິທີນີ້ເອີ້ນວ່າ Zero-shot CoT.
Reasoning model ແມ່ນການອອກແບບທີ່ຝັງ CoT ໄວ້ພາຍໃນຕົວແບບ, ຈຶ່ງສ້າງການເຊື່ອມໂຍງຄວາມຄິດໂດຍອັດຕະໂນມັດໂດຍບໍ່ຕ້ອງຊັກນຳຜ່ານ prompt. ໃນທາງກົງກັນຂ້າມ, LLM ທຳມະດາກໍ່ສາມາດດຶງ CoT ອອກມາໄດ້ຜ່ານ prompt engineering, ດັ່ງນັ້ນໃນທາງປະຕິບັດ ຄວນທົດລອງດ້ານ prompt ກ່ອນ, ແລ້ວຈຶ່ງປ່ຽນໄປໃຊ້ reasoning model ຖ້າຄວາມຖືກຕ້ອງຍັງບໍ່ພຽງພໍ.
ຂໍ້ຄວນລະວັງ: CoT ເພີ່ມຈຳນວນ output token ຈຶ່ງເຮັດໃຫ້ຄ່າໃຊ້ຈ່າຍສູງຂຶ້ນ. ການນຳໃຊ້ຢ່າງສະຫຼາດຄືການຈຳກັດການໃຊ້ສະເພາະ query ທີ່ຄວາມຖືກຕ້ອງມີຄວາມສຳຄັນ ແທນທີ່ຈະນຳໃຊ້ກັບທຸກ request.


ການຄິດໄລ່ຫຼາຍຂັ້ນຕອນ (Multi-step Reasoning) ແມ່ນຮູບແບບການຄິດໄລ່ທີ່ LLM ບໍ່ໄດ້ສ້າງຄຳຕອບໃນຄັ້ງດຽວ ແຕ່ຜ່ານຂັ້ນຕອນກາງຫຼາຍຂັ້ນ (ເຊັ່ນ: ການສ້າງຄຳຖາມຍ່ອຍ, ການກວດສອບຄຳຕອບບາງສ່ວນ, ການດຶງຂໍ້ມູນເພີ່ມເຕີມ ແລະ ອື່ນໆ) ເພື່ອໄປເຖິງຄຳຕອບສຸດທ້າຍ.

ການວິສະວະກຳ Prompt ແມ່ນເຕັກນິກການອອກແບບໂຄງສ້າງ, ການສະແດງອອກ, ແລະ ບໍລິບົດຂອງຂໍ້ຄວາມນຳເຂົ້າ (Prompt) ເພື່ອດຶງເອົາຜົນລັບທີ່ຕ້ອງການຈາກ LLM (Large Language Model - ໂມເດລພາສາຂະໜາດໃຫຍ່).

ເຕັກນິກການໂຈມຕີທີ່ໃຊ້ການປ້ອນຂໍ້ມູນທີ່ເປັນອັນຕະລາຍເພື່ອຄວບຄຸມການເຮັດວຽກຂອງ LLM ໃຫ້ໄປໃນທິດທາງທີ່ບໍ່ໄດ້ຕັ້ງໃຈ. ຖືກຈັດປະເພດເປັນຄວາມສ່ຽງສຳຄັນທີ່ສຸດໃນ OWASP LLM Top 10.


ວິທີເຮັດໃຫ້ການບໍລິການລູກຄ້າຂອງຮ້ານຄ້າ EC ໃນໄທເປັນແບບອັດຕະໂນມັດດ້ວຍ AI Chatbot

RLHF ແມ່ນວິທີການຮຽນຮູ້ແບບເສີມກຳລັງທີ່ໃຊ້ຄຳຕິຊົມຂອງມະນຸດເປັນລາງວັນ, ສ່ວນ RLVR ແມ່ນວິທີການຮຽນຮູ້ແບບເສີມກຳລັງທີ່ໃຊ້ຄຳຕອບທີ່ສາມາດກວດສອບໄດ້ເປັນລາງວັນ, ທັງສອງວິທີຖືກໃຊ້ເພື່ອປັບຜົນລັບຂອງ LLM ໃຫ້ສອດຄ່ອງກັບຄວາມຄາດຫວັງຂອງມະນຸດ.