ໂອເພັນເວດໂມເດລ (Open-weight model) ແມ່ນໂມເດລພາສາທີ່ມີການເຜີຍແຜ່ນ້ຳໜັກ (parameters) ຂອງໂມເດລທີ່ຜ່ານການຝຶກສອນແລ້ວ ໂດຍສາມາດດາວໂຫຼດແລະນຳໃຊ້ໄດ້ຢ່າງເສລີສຳລັບການ inference ແລະ Fine-tuning.
ເຖິງແມ່ນວ່າມັກຈະຖືກສັບສົນກັນ, ແຕ່ Open Weight ແລະ Open Source ບໍ່ແມ່ນສິ່ງດຽວກັນ. Open Source ຂອງຊອບແວໝາຍຄວາມວ່າ source code, ຂໍ້ມູນການຝຶກສອນ, ແລະຂັ້ນຕອນການຝຶກສອນທັງໝົດຖືກເປີດເຜີຍສາທາລະນະ, ໃຫ້ທຸກຄົນສາມາດຈຳລອງແລະດັດແປງໄດ້. Open Weight ແມ່ນແນວຄິດທີ່ຈຳກັດກວ່າ ໝາຍຄວາມວ່າ "ໄຟລ໌ weight ທີ່ຜ່ານການຝຶກສອນແລ້ວຖືກເປີດເຜີຍສາທາລະນະ".
Llama 3 ຂອງ Meta ເປີດເຜີຍ weight ຂອງໂມເດລ, ແຕ່ລາຍລະອຽດຂອງ dataset ທີ່ໃຊ້ໃນການຝຶກສອນຍັງເປັນຄວາມລັບ, ແລະການນຳໃຊ້ທາງການຄ້າກໍ່ມີເງື່ອນໄຂຂຶ້ນກັບຈຳນວນຜູ້ໃຊ້ຕໍ່ເດືອນ. Mistral ກໍ່ເຊັ່ນດຽວກັນ ເປີດເຜີຍ weight ແຕ່ licence ປະສົມລະຫວ່າງ Apache 2.0 ແລະ licence ສະເພາະຂອງຕົນເອງຕາມແຕ່ລະໂມເດລ. ຢ່າງເຄັ່ງຄັດແລ້ວ, ການເອີ້ນວ່າ "Open Weight" ແທນ Open Source ຈຶ່ງຖືກຕ້ອງກວ່າ.
ການທີ່ມີ weight ຢູ່ໃນມືໝາຍຄວາມວ່າສາມາດດຳເນີນການ inference ພາຍໃຕ້ການຄວບຄຸມຂອງບໍລິສັດຕົນເອງໄດ້ຢ່າງສົມບູນ. ສິ່ງນີ້ໝາຍຄວາມວ່າ 3 ຂໍ້ດັ່ງຕໍ່ໄປນີ້.
ອິດສະລະພາບໃນການ Customize: ສາມາດ Fine-tuning ດ້ວຍຂໍ້ມູນຂອງບໍລິສັດຕົນເອງ ແລະສ້າງໂມເດລທີ່ສະເພາະໃນ domain ໃດໜຶ່ງໄດ້. ສາມາດ customize ໄດ້ຢ່າງເລິກເຊິ່ງ ເຊິ່ງເປັນໄປບໍ່ໄດ້ຜ່ານ API. ຖ້າໃຊ້ PEFT ຫຼື LoRA, ການ Fine-tuning ດ້ວຍ GPU ສຳລັບຜູ້ບໍລິໂພກພຽງໃບດຽວກໍ່ເປັນໄປໄດ້ຢ່າງຈິງຈັງ.
ການຮັບປະກັນ Data Sovereignty: ເນື່ອງຈາກບໍ່ມີການສົ່ງຂໍ້ມູນໄປພາຍນອກໃນເວລາ inference, ຈຶ່ງສາມາດນຳໃຊ້ກັບວຽກງານທີ່ຈັດການຂໍ້ມູນລັບໄດ້. ນີ້ຄືເຫດຜົນທີ່ການນຳໃຊ້ໃນອຸດສາຫະກຳທີ່ມີກົດລະບຽບເຂັ້ມງວດ ເຊັ່ນ: ການເງິນ, ການແພດ, ແລະກົດໝາຍ ກຳລັງຂະຫຍາຍຕົວ.
ການຫຼີກລ່ຽງ Vendor Lock-in: ບໍ່ຕ້ອງອາໄສຜູ້ໃຫ້ບໍລິການ API ສະເພາະໃດໜຶ່ງ. ສາມາດແຍກໂຄງສ້າງພື້ນຖານ AI ຂອງບໍລິສັດຕົນເອງອອກຈາກຄວາມສ່ຽງຂອງການປ່ຽນແປງລາຄາ ຫຼືການຢຸດໃຫ້ບໍລິການໄດ້.
ຊຸດ Llama 4 ຂອງ Meta ມີຂະໜາດຫຼາກຫຼາຍ ຕັ້ງແຕ່ Scout (17B active / 109B total) ຈົນເຖິງ Behemoth (288B active / 2T total), ໂດຍໃຊ້ສະຖາປັດຕະຍະກຳ Mixture of Experts. Gemma 3 ຂອງ Google ເດີນທາງສາຍເບົາ ຕັ້ງແຕ່ 1B ຫາ 27B. Mistral ໃຫ້ບໍລິການສະໝັດຖະພາບລະດັບການຄ້າດ້ວຍ Mistral Large 2 ໃນຂະນະທີ່ອອກລຸ້ນເບົາຄຽງຄູ່ກັນ. ໃນກຸ່ມຈີນ, DeepSeek-V3 ແລະ Qwen 2.5 ກຳລັງສ້າງຕົວຕົນດ້ວຍສະໝັດຖະພາບຫຼາຍພາສາ.
ສິ່ງທີ່ຕ້ອງກວດສອບໃນການຄັດເລືອກບໍ່ແມ່ນພຽງແຕ່ສະໝັດຖະພາບຂອງໂມເດລເທົ່ານັ້ນ. ຈຳເປັນຕ້ອງກວດສອບລ່ວງໜ້າກ່ຽວກັບເງື່ອນໄຂ licence (ການອະນຸຍາດໃຊ້ທາງການຄ້າ, ຂໍ້ຈຳກັດຈຳນວນຜູ້ໃຊ້), ພາສາທີ່ຮອງຮັບ, ແລະ hardware spec ທີ່ຕ້ອງການ.


ການປັບແຕ່ງລະອຽດ (Fine-Tuning) ແມ່ນຂະບວນການທີ່ນຳເອົາຂໍ້ມູນການຮຽນຮູ້ເພີ່ມເຕີມມາໃຫ້ກັບໂມເດລ Machine Learning ທີ່ຜ່ານການຮຽນຮູ້ລ່ວງໜ້າແລ້ວ ເພື່ອປັບໃຫ້ເໝາະສົມກັບວຽກງານ ຫຼື ໂດເມນສະເພາະໃດໜຶ່ງ.

PEFT (Parameter-Efficient Fine-Tuning) ແມ່ນຊື່ເອີ້ນລວມຂອງວິທີການ fine-tuning ທີ່ປັບໂມເດນໃຫ້ເໝາະສົມກັບວຽກງານສະເພາະໂດຍໃຊ້ຊັບພະຍາກອນການຄຳນວນ ແລະ ຂໍ້ມູນໜ້ອຍລົງ ດ້ວຍການອັບເດດສະເພາະບາງສ່ວນຂອງ parameter ທັງໝົດໃນ large language model ເທົ່ານັ້ນ, ບໍ່ແມ່ນທຸກ parameter.

SLM (Small Language Model) ແມ່ນຊື່ເອີ້ນລວມຂອງໂມເດລພາສາທີ່ຈຳກັດຈຳນວນ Parameter ໄວ້ທີ່ປະມານຫຼາຍພັນລ້ານຫາໜຶ່ງໝື່ນລ້ານຕົວ, ໂດຍມີຄຸນລັກສະນະທີ່ສາມາດດຳເນີນການ Inference ແລະ Fine-tuning ໄດ້ດ້ວຍຊັບພະຍາກອນການຄຳນວນທີ່ໜ້ອຍກວ່າ LLM.

ວິທີວັດແທກຜົນກະທົບຂອງການນຳໃຊ້ AI Agent | ຈາກການອອກແບບ KPI ເຖິງການປັບປຸງຢ່າງຕໍ່ເນື່ອງ

ວິທີການປັບປຸງທີ່ຫຼຸດຄວາມແມ່ນຍຳຂອງ parameter ຂອງໂມເດລຈາກ 16bit ລົງໄປເປັນ 4bit ເປັນຕົ້ນ ເພື່ອບີບອັດຂະໜາດ ແລະເປີດໃຫ້ສາມາດ inference ໄດ້ດ້ວຍຊັບພະຍາກອນການຄຳນວນທີ່ຈຳກັດ.