ຮູບແບບພື້ນຖານ (Foundation Model) ແມ່ນໂມເດລ AI ທົ່ວໄປທີ່ຜ່ານການ pre-training ດ້ວຍຊຸດຂໍ້ມູນຂະໜາດໃຫຍ່. ມັນບໍ່ໄດ້ຖືກອອກແບບສະເພາະສຳລັບໜ້າທີ່ໃດໜ້າທີ່ໜຶ່ງ, ແຕ່ທຳໜ້າທີ່ເປັນ "ຮາກຖານ" ທີ່ສາມາດປັບໃຊ້ກັບຈຸດປະສົງທີ່ຫຼາກຫຼາຍໄດ້ ຜ່ານການ fine-tuning ຫຼື prompt engineering.
## ໂມເດລໃນຖານະ "ພື້ນຖານ" ຊື່ເອີ້ນ "Foundation Model" ທີ່ມະຫາວິທະຍາໄລ Stanford ສະເໜີຂຶ້ນໃນປີ 2021 ນັ້ນ ໄດ້ຮັບການປຽບທຽບກັບຮາກຖານ (foundation) ຂອງສະຖາປັດຕະຍະກຳ. ແນວຄິດນີ້ຄືການທີ່ສາມາດສ້າງແອັບພລິເຄຊັນທີ່ຫຼາກຫຼາຍ ເຊັ່ນ: chatbot, ການສ້າງໂຄດ, ການແປພາສາ, ແລະ ການສະຫຼຸບຂໍ້ຄວາມ ໂດຍອາໄສພື້ນຖານດຽວກັນ. LLM ຫຼັກໆ ເຊັ່ນ GPT, Claude, Llama ແລະ Gemini ລ້ວນແລ້ວແຕ່ເປັນ base model ທັງໝົດ ແລະ ໄດ້ຮັບການ pre-training ດ້ວຍຂໍ້ມູນຂໍ້ຄວາມຫຼາຍລ້ານລ້ານ token. ການ pre-training ນີ້ຊ່ວຍໃຫ້ໂມເດລໄດ້ຮັບ "ພື້ນຖານ" ດ້ານໂຄງສ້າງພາສາ, ຄວາມຮູ້ກ່ຽວກັບໂລກ ແລະ ຄວາມສາມາດໃນການໃຊ້ເຫດຜົນ. ## ວິທີການ Customize ມີຫຼາຍວິທີໃນການປັບ base model ໃຫ້ເໝາະສົມກັບວຽກງານສະເພາະ. ວິທີທີ່ງ່າຍທີ່ສຸດຄື prompt engineering ເຊິ່ງເປັນການປັບແຕ່ງຄຳສັ່ງໂດຍບໍ່ມີການປ່ຽນແປງໂມເດລເອງ. ຕໍ່ມາຄື fine-tuning ເຊິ່ງເປັນການປັບ weight ຂອງໂມເດລດ້ວຍຂໍ້ມູນສະເພາະຂອງວຽກງານ. LoRA ແລະ QLoRA ແມ່ນເຕັກນິກທີ່ຊ່ວຍຫຼຸດຕົ້ນທຶນຂອງ fine-tuning ໄດ້ຢ່າງຫຼວງຫຼາຍ. ສຳລັບກໍລະນີທີ່ຕ້ອງການຄວາມເລິກຊຶ້ງຍິ່ງຂຶ້ນ ສາມາດດຳເນີນການ Continued Pre-training ເພື່ອເພີ່ມຄວາມຮູ້ສະເພາະໂດເມນໃຫ້ກັບໂມເດລ. ວິທີນີ້ຖືກນຳໃຊ້ໃນຂົງເຂດທີ່ມີຄຳສັບວິຊາການຫຼາຍ ເຊັ່ນ ການແພດ ຫຼື ກົດໝາຍ. ## Open Weight vs Proprietary Base model ແບ່ງອອກເປັນສອງປະເພດໃຫຍ່ໆ. ໄດ້ແກ່ "open weight model" ທີ່ weight ຂອງໂມເດລຖືກເຜີຍແຜ່ສາທາລະນະ ເຊັ່ນ Llama ຂອງ Meta ແລະ Mistral, ແລະ proprietary model ທີ່ສາມາດໃຊ້ງານໄດ້ຜ່ານ API ເທົ່ານັ້ນ ເຊັ່ນ GPT ຂອງ OpenAI ແລະ Claude ຂອງ Anthropic. ໃນກໍລະນີທີ່ດຳເນີນການ fine-tuning ຫຼື ການໃຊ້ງານ local LLM ພາຍໃນອົງກອນ, open weight model ຈະເປັນຂໍ້ກຳນົດເບື້ອງຕົ້ນ. ໃນກໍລະນີທີ່ການໃຊ້ງານ API ພຽງພໍ, proprietary model ອາດຈະມີຕົ້ນທຶນການດຳເນີນງານທີ່ຕ່ຳກວ່າໃນບາງກໍລະນີ.


ການປັບແຕ່ງລະອຽດ (Fine-Tuning) ແມ່ນຂະບວນການທີ່ນຳເອົາຂໍ້ມູນການຮຽນຮູ້ເພີ່ມເຕີມມາໃຫ້ກັບໂມເດລ Machine Learning ທີ່ຜ່ານການຮຽນຮູ້ລ່ວງໜ້າແລ້ວ ເພື່ອປັບໃຫ້ເໝາະສົມກັບວຽກງານ ຫຼື ໂດເມນສະເພາະໃດໜຶ່ງ.

ຮາລູຊິເນຊັນ (Hallucination) ແມ່ນປະກົດການທີ່ AI model ສ້າງຂໍ້ມູນທີ່ບໍ່ອີງໃສ່ຄວາມເປັນຈິງ ຄືກັບວ່າຂໍ້ມູນນັ້ນຖືກຕ້ອງ. ປະກົດການນີ້ເກີດຈາກກົນໄກທີ່ LLM ສ້າງຂໍ້ຄວາມທີ່ "ໜ້າເຊື່ອຖື" ຈາກຮູບແບບຂໍ້ມູນການຝຶກສອນ, ເຊິ່ງເຮັດໃຫ້ການກຳຈັດອອກຢ່າງສົມບູນເປັນເລື່ອງຍາກ.

ໂອເພັນເວດໂມເດລ (Open-weight model) ແມ່ນໂມເດລພາສາທີ່ມີການເຜີຍແຜ່ນ້ຳໜັກ (parameters) ຂອງໂມເດລທີ່ຜ່ານການຝຶກສອນແລ້ວ ໂດຍສາມາດດາວໂຫຼດແລະນຳໃຊ້ໄດ້ຢ່າງເສລີສຳລັບການ inference ແລະ Fine-tuning.


AI Hybrid BPO ແມ່ນຫຍັງ? ກົນລະຍຸດ Outsourcing ລຸ້ນໃໝ່ທີ່ບັນລຸໄດ້ດ້ວຍການຮ່ວມມືທີ່ດີທີ່ສຸດລະຫວ່າງມະນຸດແລະ AI

AI chatbot ແມ່ນຊອບແວທີ່ໃຊ້ການປະມວນຜົນພາສາທຳມະຊາດ (NLP) ແລະ LLM ເພື່ອດຳເນີນການສົນທະນາກັບມະນຸດໂດຍອັດຕະໂນມັດ. ແຕກຕ່າງຈາກ chatbot ແບບ rule-based ແບບດັ້ງເດີມ, ຈຸດເດັ່ນຂອງມັນຄືສາມາດເຂົ້າໃຈບໍລິບົດແລະຕອບສະໜອງຕໍ່ຄຳຖາມທີ່ບໍ່ໄດ້ກຳນົດໄວ້ລ່ວງໜ້າໄດ້.