PEFT (Parameter-Efficient Fine-Tuning) ແມ່ນຊື່ເອີ້ນລວມຂອງວິທີການ fine-tuning ທີ່ປັບໂມເດນໃຫ້ເໝາະສົມກັບວຽກງານສະເພາະໂດຍໃຊ້ຊັບພະຍາກອນການຄຳນວນ ແລະ ຂໍ້ມູນໜ້ອຍລົງ ດ້ວຍການອັບເດດສະເພາະບາງສ່ວນຂອງ parameter ທັງໝົດໃນ large language model ເທົ່ານັ້ນ, ບໍ່ແມ່ນທຸກ parameter.
ການພະຍາຍາມຝຶກທຸກ parameter ຂອງ LLM ທີ່ມີຫຼາຍພັນລ້ານ parameter ໂດຍກົງນັ້ນ, ແມ່ນແຕ່ຈະໃຊ້ A100 ຈຳນວນ 8 ໃບກໍຍັງໃຊ້ເວລາຫຼາຍກວ່າເຄິ່ງວັນ. ໃນສະພາບແວດລ້ອມທີ່ມີງົບປະມານ ແລະ ຮາດແວຈຳກັດ, ສ່ວນຫຼາຍແລ້ວທາງເລືອກນີ້ຈະບໍ່ຖືກພິຈາລະນາຕັ້ງແຕ່ຕົ້ນ. PEFT ທຳລາຍກຳແພງນີ້ດ້ວຍວິທີການ "ແຊ່ແຂງສ່ວນໃຫຍ່ຂອງໂມເດລ ແລະ ຝຶກສະເພາະ parameter ຈຳນວນໜ້ອຍທີ່ເພີ່ມເຂົ້າໄປ".
ເມື່ອຈັດລຽງວິທີການທີ່ເປັນຕົວແທນ, ຈະໄດ້ດັ່ງນີ້:
ທີມງານຂອງຜູ້ຂຽນໄດ້ຝຶກ LLM ຂະໜາດ 7B parameter ດ້ວຍ LoRA ໂດຍໃຊ້ A100 ພຽງ 1 ໃບ ໃນເວລາປະມານ 3 ຊົ່ວໂມງ, ແລະ ສາມາດຍົກລະດັບຄວາມຖືກຕ້ອງສຳລັບ task ສະເພາະໄດ້ 15〜20% ເມື່ອທຽບກັບ base model. ຖ້າເປັນ full FT ສຳລັບ task ດຽວກັນ ຈະຕ້ອງໃຊ້ A100×8 ເປັນເວລາ 12 ຊົ່ວໂມງ, ດັ່ງນັ້ນຄວາມແຕກຕ່າງດ້ານຄ່າໃຊ້ຈ່າຍຈຶ່ງຊັດເຈນຫຼາຍ.
ໃນທາງກົງກັນຂ້າມ, ມັນກໍ່ບໍ່ໄດ້ເປັນທາງແກ້ທີ່ໃຊ້ໄດ້ທຸກກໍລະນີ. ການໃຫ້ໂມເດລໄດ້ຮັບຄວາມສາມາດທີ່ມັນບໍ່ມີຢູ່ເດີມ — ຕົວຢ່າງເຊັ່ນ ການສ້າງຂໍ້ຄວາມໃນພາສາທີ່ບໍ່ຮອງຮັບ — ດ້ວຍ PEFT ຢ່າງດຽວນັ້ນເປັນເລື່ອງຍາກ, ແລະ ໃນກໍລະນີດັ່ງກ່າວຈຳເປັນຕ້ອງລວມກັບ Continued Pre-training.
ມັກຈະຖືກຖາມວ່າ "ຄວນໃຊ້ PEFT ຫຼື RAG?", ແຕ່ໂດຍພື້ນຖານແລ້ວທັງສອງມີບົດບາດທີ່ແຕກຕ່າງກັນ. RAG ຮັບຜິດຊອບການອ້າງອີງຄວາມຮູ້ຈາກພາຍນອກ, ສ່ວນ PEFT ຮັບຜິດຊອບການປັບພຶດຕິກຳ ແລະ ຮູບແບບຂອງໂມເດລ. ຈຸດເລີ່ມຕົ້ນຂອງການໃຊ້ງານຕົວຈິງຄື: ຖ້າຕ້ອງການໃຫ້ອ້າງອີງຄວາມຮູ້ພາຍໃນອົງກອນຢ່າງຖືກຕ້ອງໃຫ້ໃຊ້ RAG, ຖ້າຕ້ອງການປັບໃຫ້ໂທນ ແລະ ຮູບແບບຄຳຕອບສອດຄ່ອງກັນໃຫ້ໃຊ້ PEFT. ກໍລະນີທີ່ລວມທັງສອງຢ່າງເຂົ້າດ້ວຍກັນກໍ່ບໍ່ແມ່ນເລື່ອງຜິດປົກກະຕິ.


ໂອເພັນເວດໂມເດລ (Open-weight model) ແມ່ນໂມເດລພາສາທີ່ມີການເຜີຍແຜ່ນ້ຳໜັກ (parameters) ຂອງໂມເດລທີ່ຜ່ານການຝຶກສອນແລ້ວ ໂດຍສາມາດດາວໂຫຼດແລະນຳໃຊ້ໄດ້ຢ່າງເສລີສຳລັບການ inference ແລະ Fine-tuning.

ການປັບແຕ່ງລະອຽດ (Fine-Tuning) ແມ່ນຂະບວນການທີ່ນຳເອົາຂໍ້ມູນການຮຽນຮູ້ເພີ່ມເຕີມມາໃຫ້ກັບໂມເດລ Machine Learning ທີ່ຜ່ານການຮຽນຮູ້ລ່ວງໜ້າແລ້ວ ເພື່ອປັບໃຫ້ເໝາະສົມກັບວຽກງານ ຫຼື ໂດເມນສະເພາະໃດໜຶ່ງ.

ການປັບຂະໜາດໃນເວລາອະນຸມານ (Inference-time Scaling) ແມ່ນເຕັກນິກທີ່ເພີ່ມຫຼືຫຼຸດປະລິມານການຄຳນວນໃນຂັ້ນຕອນການອະນຸມານຂອງໂມເດລຢ່າງເໝາະສົມ ໂດຍໃຊ້ "ຂັ້ນຕອນການຄິດ" ຫຼາຍຂຶ້ນສຳລັບບັນຫາທີ່ຍາກ ແລະ ຕອບທັນທີສຳລັບບັນຫາທີ່ງ່າຍ.


PEFT (Parameter-Efficient Fine-Tuning) ຄືຫຍັງ? ເທັກໂນໂລຊີທີ່ຫຼຸດຕົ້ນທຶນການປັບແຕ່ງ AI Model ລົງ 90%

ຮູບແບບພື້ນຖານ (Foundation Model) ແມ່ນໂມເດລ AI ທົ່ວໄປທີ່ຜ່ານການ pre-training ດ້ວຍຊຸດຂໍ້ມູນຂະໜາດໃຫຍ່. ມັນບໍ່ໄດ້ຖືກອອກແບບສະເພາະສຳລັບໜ້າທີ່ໃດໜ້າທີ່ໜຶ່ງ, ແຕ່ທຳໜ້າທີ່ເປັນ "ຮາກຖານ" ທີ່ສາມາດປັບໃຊ້ກັບຈຸດປະສົງທີ່ຫຼາກຫຼາຍໄດ້ ຜ່ານການ fine-tuning ຫຼື prompt engineering.