LLM (Large Language Model) ແມ່ນຊື່ເອີ້ນລວມຂອງໂມເດລ neural network ທີ່ມີພາລາມິເຕີຈຳນວນຫຼາຍພັນລ້ານຫາຫຼາຍລ້ານລ້ານຕົວ ຊຶ່ງໄດ້ຮັບການຝຶກອົບຮົມລ່ວງໜ້າດ້ວຍຂໍ້ມູນຂໍ້ຄວາມຈຳນວນຫຼວງຫຼາຍ ແລະ ສາມາດເຂົ້າໃຈ ແລະ ສ້າງພາສາທຳມະຊາດໄດ້ດ້ວຍຄວາມຖືກຕ້ອງສູງ.
ນັບຕັ້ງແຕ່ການເປີດໃຊ້ງານ ChatGPT ໃນເດືອນພະຈິກ ປີ 2022 ເປັນຕົ້ນມາ, ຄຳວ່າ LLM ໄດ້ແຜ່ຂະຫຍາຍອອກໄປບໍ່ພຽງແຕ່ໃນກຸ່ມນັກເຕັກໂນໂລຊີເທົ່ານັ້ນ, ແຕ່ຍັງເປັນທີ່ຮູ້ຈັກໃນວົງກວ້າງທົ່ວໄປອີກດ້ວຍ. ແຕ່ທາດແທ້ທີ່ຊື່ "ໂມເດລພາສາຂະໜາດໃຫຍ່" ສະແດງໃຫ້ເຫັນນັ້ນເປັນເລື່ອງງ່າຍດາຍ, ມັນກໍ່ພຽງແຕ່ "ໂມເດລທີ່ຖືກຝຶກໃຫ້ອ່ານຂໍ້ຄວາມຈຳນວນຫຼວງຫຼາຍ ແລ້ວຄາດເດົາຄຳທີ່ຈະຕາມມາຊ້ຳໆ" ເທົ່ານັ້ນ. ຄວາມໜ້າສົນໃຈຂອງ LLM ຢູ່ທີ່ວ່າ ຈາກເປົ້າໝາຍການຮຽນຮູ້ທີ່ເຮັດໄດ້ງ່າຍນີ້, ຄວາມສາມາດທີ່ຫຼາກຫຼາຍ ເຊັ່ນ: ການແປພາສາ, ການສະຫຼຸບ, ການສ້າງໂຄດ, ແລະ ການໃຊ້ເຫດຜົນ ໄດ້ເກີດຂຶ້ນຢ່າງ emergent, ແລະ ໃນຂະນະດຽວກັນ ນັ້ນກໍ່ເປັນສ່ວນທີ່ຄວາມເຂົ້າໃຈທາງທິດສະດີຍັງຕາມບໍ່ທັນ. ເພື່ອໃຫ້ເຫັນພາບຂະໜາດໄດ້ຊັດເຈນຂຶ້ນ, GPT-3 ມີ 175 ຕື້ parameters (ປີ 2020), Llama 3 ມີ 70 ຕື້ parameters (ປີ 2024), ສ່ວນ GPT-4 ບໍ່ໄດ້ເປີດເຜີຍ ແຕ່ຄາດວ່າເກີນ 1 ລ້ານລ້ານ. ຈຳນວນ parameters ທີ່ຫຼາຍຂຶ້ນມີແນວໂນ້ມທີ່ຈະສະຫຼາດຂຶ້ນ, ແຕ່ດັ່ງທີ່ຂໍ້ເທັດຈິງທີ່ Llama 3 70B ເກີນ GPT-3 175B ໃນ benchmarks ຫຼາຍອັນສະແດງໃຫ້ເຫັນ, ຄຸນນະພາບຂອງຂໍ້ມູນການຝຶກ ແລະ ການປັບປຸງ architecture ກໍ່ມີຄວາມສຳຄັນທຽບເທົ່າຫຼືຫຼາຍກວ່ານັ້ນ. ເສັ້ນທາງຫຼັກໃນການໃຊ້ LLM ໃນທາງປະຕິບັດມີ 3 ທາງ. ທາງທີ 1 ຄື **ຜ່ານ API**. ເອີ້ນໃຊ້ໂມເດລຂອງ OpenAI ຫຼື Anthropic ໂດຍກົງ. ສະດວກທີ່ສຸດ, ແຕ່ຈຸດທ້າທາຍຄືຂໍ້ມູນຖືກສົ່ງໄປຍັງພາຍນອກ ແລະ ການຄຸ້ມຄອງຄ່າໃຊ້ຈ່າຍແບບ pay-per-use. ທາງທີ 2 ຄື **ການລວມກັບ RAG**. ຄົ້ນຫາເອກະສານພາຍໃນອົງກອນ ແລ້ວສົ່ງໃຫ້ LLM, ເພື່ອຫຼຸດ hallucination (ຜົນລັບທີ່ຜິດຈາກຄວາມເປັນຈິງ) ໃນຂະນະທີ່ໃຊ້ຄວາມຮູ້ພາຍໃນ. ອຸປະສັກໃນການນຳໃຊ້ຕ່ຳ ເພາະບໍ່ຕ້ອງປ່ຽນໂມເດລ. ທາງທີ 3 ຄື **fine-tuning**. ປັບພຶດຕິກຳຂອງໂມເດລດ້ວຍຂໍ້ມູນຂອງຕົນເອງ. ມີປະສິດທິຜົນໃນກໍລະນີທີ່ຕ້ອງການຄວາມສອດຄ່ອງຂອງໂທນຄຳຕອບ ຫຼື ການໃຊ້ຄຳສັບສະເພາະທາງອຸດສາຫະກຳຢ່າງຖືກຕ້ອງ, ແຕ່ຕ້ອງການການກຽມຂໍ້ມູນການຝຶກ ແລະ ຄ່າໃຊ້ຈ່າຍ GPU. ການເລືອກທາງໃດຂຶ້ນຢູ່ກັບ "ຕ້ອງການແກ້ໄຂຫຍັງ", ແລະ ກໍລະນີທີ່ລວມທັງ 3 ທາງເຂົ້າກັນກໍ່ເພີ່ມຂຶ້ນເລື້ອຍໆ.


ການວິສະວະກຳ Prompt ແມ່ນເຕັກນິກການອອກແບບໂຄງສ້າງ, ການສະແດງອອກ, ແລະ ບໍລິບົດຂອງຂໍ້ຄວາມນຳເຂົ້າ (Prompt) ເພື່ອດຶງເອົາຜົນລັບທີ່ຕ້ອງການຈາກ LLM (Large Language Model - ໂມເດລພາສາຂະໜາດໃຫຍ່).

ຮາລູຊິເນຊັນ (Hallucination) ແມ່ນປະກົດການທີ່ AI model ສ້າງຂໍ້ມູນທີ່ບໍ່ອີງໃສ່ຄວາມເປັນຈິງ ຄືກັບວ່າຂໍ້ມູນນັ້ນຖືກຕ້ອງ. ປະກົດການນີ້ເກີດຈາກກົນໄກທີ່ LLM ສ້າງຂໍ້ຄວາມທີ່ "ໜ້າເຊື່ອຖື" ຈາກຮູບແບບຂໍ້ມູນການຝຶກສອນ, ເຊິ່ງເຮັດໃຫ້ການກຳຈັດອອກຢ່າງສົມບູນເປັນເລື່ອງຍາກ.

ໂລກອລ LLM ແມ່ນຮູບແບບການດຳເນີນງານທີ່ດຳເນີນການໂມເດລພາສາຂະໜາດໃຫຍ່ໂດຍກົງເທິງເຊີບເວີ ຫຼື PC ຂອງຕົນເອງ ໂດຍບໍ່ຜ່ານ cloud API.


PEFT (Parameter-Efficient Fine-Tuning) ຄືຫຍັງ? ເທັກໂນໂລຊີທີ່ຫຼຸດຕົ້ນທຶນການປັບແຕ່ງ AI Model ລົງ 90%

AI chatbot ແມ່ນຊອບແວທີ່ໃຊ້ການປະມວນຜົນພາສາທຳມະຊາດ (NLP) ແລະ LLM ເພື່ອດຳເນີນການສົນທະນາກັບມະນຸດໂດຍອັດຕະໂນມັດ. ແຕກຕ່າງຈາກ chatbot ແບບ rule-based ແບບດັ້ງເດີມ, ຈຸດເດັ່ນຂອງມັນຄືສາມາດເຂົ້າໃຈບໍລິບົດແລະຕອບສະໜອງຕໍ່ຄຳຖາມທີ່ບໍ່ໄດ້ກຳນົດໄວ້ລ່ວງໜ້າໄດ້.