SLM (Small Language Model) ແມ່ນຊື່ເອີ້ນລວມຂອງໂມເດລພາສາທີ່ຈຳກັດຈຳນວນ Parameter ໄວ້ທີ່ປະມານຫຼາຍພັນລ້ານຫາໜຶ່ງໝື່ນລ້ານຕົວ, ໂດຍມີຄຸນລັກສະນະທີ່ສາມາດດຳເນີນການ Inference ແລະ Fine-tuning ໄດ້ດ້ວຍຊັບພະຍາກອນການຄຳນວນທີ່ໜ້ອຍກວ່າ LLM.
## "ນ້ອຍ" ບໍ່ໄດ້ໝາຍຄວາມວ່າ "ອ່ອນແອ" ໃນໂລກຂອງ LLM ມາເປັນເວລາດົນນານ ຄວາມເຊື່ອທີ່ວ່າ "ໃຫຍ່ກວ່າ ສະຫຼາດກວ່າ" ຖືເປັນເລື່ອງປົກກະຕິ. GPT-4 ມີ parameter ທີ່ຄາດຄະເນໄວ້ປະມານ 1.8 ລ້ານລ້ານ ໃນຂະນະທີ່ SLM ມີພຽງ 1B〜10B ເທົ່ານັ້ນ ຊຶ່ງຕ່າງກັນຖຶງ 2 ຂັ້ນ. ແຕ່ຫຼັງຈາກປີ 2025 ເປັນຕົ້ນໄປ ຄວາມເຊື່ອນີ້ກໍ່ກຳລັງພັງທະລາຍລົງຢ່າງໄວວາ. Microsoft ຂອງ Phi-4 (14B) ໄດ້ສ້າງຄະແນນທີ່ທຽບເທົ່າກັບ GPT-4o ໃນ benchmark ການໃຊ້ເຫດຜົນຫຼາຍລາຍການ. Gemma 3 ຂອງ Google ໃນຊ່ວງ 1B〜27B ມີປະສິດທິພາບສູງຫຼາຍເມື່ອທຽບກັບຂະໜາດ. ດ້ວຍການປັບປຸງ model architecture ແລະ ການ curation ຂໍ້ມູນການຮຽນຮູ້ທີ່ມີຄຸນນະພາບສູງ ທຳໃຫ້ "ນ້ອຍແຕ່ມີປະສິດທິພາບພຽງພໍສຳລັບວຽກງານສະເພາະ" ກາຍເປັນຄວາມເປັນຈິງ. ## ໃຊ້ງານຢູ່ໃສ ສະໜາມຮົບຫຼັກຂອງ SLM ມີ 3 ດ້ານ. **Edge device**: ສະພາບແວດລ້ອມທີ່ຊັບພະຍາກອນ GPU ມີຈຳກັດ ເຊັ່ນ: smartphone, IoT gateway, ແລະ ອຸປະກອນ embedded ຕ່າງໆ. ການທີ່ Apple ດຳເນີນການ on-device inference ເທິງ iPhone ແມ່ນຕົວຢ່າງທີ່ຊັດເຈນຂອງ SLM. **ການເພີ່ມປະສິດທິພາບດ້ານຕົ້ນທຶນ**: ການໃຊ້ GPT-4 class ສຳລັບວຽກງານປົກກະຕິ ເຊັ່ນ: ການຈັດປະເພດ, ການສະຫຼຸບ, ແລະ ການດຶງຂໍ້ມູນ ຖືວ່າ overspec ເກີນໄປ. ດ້ວຍ SLM ຄ່າໃຊ້ຈ່າຍໃນການ inference ອາດຫຼຸດລົງໄດ້ຫຼາຍກວ່າ 10 ເທົ່າ. **ຄວາມຕ້ອງການດ້ານ latency**: ໃນສະຖານະການທີ່ຕ້ອງການການຕອບສະໜອງພາຍໃນຫຼາຍສິບ millisecond ເຊັ່ນ: real-time chat, ການຕອບສະໜອງດ້ວຍສຽງ, ແລະ game AI. ດ້ວຍ parameter ທີ່ໜ້ອຍກວ່າ ຄວາມໄວໃນການ inference ຈຶ່ງໄວກວ່າຢ່າງເຫັນໄດ້ຊັດ. ## ການແບ່ງໃຊ້ງານລະຫວ່າງ LLM ແລະ SLM ໃນສະຖານະການທີ່ຕ້ອງການຄຳຕອບທີ່ຄອບຄຸມທຸກດ້ານ (ການໃຊ້ເຫດຜົນທີ່ສັບສົນ, ການຮອງຮັບຫຼາຍພາສາ, ການສ້າງຂໍ້ຄວາມຍາວ) LLM ຍັງຄົງມີຄວາມໄດ້ປຽບ. ໃນທາງກົງກັນຂ້າມ ຖ້າສາມາດກຳນົດຂອບເຂດວຽກງານໄດ້ ການ fine-tuning SLM ອາດດີກວ່າທັງໃນດ້ານຄວາມຖືກຕ້ອງ, ຄວາມໄວ, ແລະ ຕົ້ນທຶນ. ໃນການປະຕິບັດຕົວຈິງ ຮູບແບບທີ່ກຳລັງກາຍເປັນມາດຕະຖານຄື "ສ້າງ prototype ດ້ວຍ LLM API ກ່ອນ ແລ້ວເມື່ອວຽກງານຊັດເຈນແລ້ວ ຈຶ່ງ distill ລົງໃນ SLM ເພື່ອຫຼຸດຕົ້ນທຶນ". Distillation ໝາຍເຖິງວິທີການຝຶກ model ຂະໜາດນ້ອຍ ໂດຍໃຊ້ output ຂອງ model ຂະໜາດໃຫຍ່ເປັນຂໍ້ມູນ teacher.


A2A (Agent-to-Agent Protocol) ແມ່ນໂປຣໂຕຄໍການສື່ສານທີ່ຊ່ວຍໃຫ້ AI agent ທີ່ແຕກຕ່າງກັນສາມາດຄົ້ນຫາຄວາມສາມາດ, ມອບໝາຍໜ້າທີ່, ແລະ ເຊື່ອມຕໍ່ ຫຼື ຊິງຄ໌ຂໍ້ມູນສະຖານະລະຫວ່າງກັນໄດ້, ໂດຍ Google ໄດ້ເປີດຕົວໃນເດືອນເມສາ 2025.

Agentic AI ແມ່ນຊື່ເອີ້ນລວມຂອງລະບົບ AI ທີ່ສາມາດຕີຄວາມໝາຍເປົ້າໝາຍ ແລະ ດຳເນີນການວາງແຜນ, ປະຕິບັດ, ແລະ ກວດສອບຢ່າງເປັນອິດສະຫຼະ ໂດຍບໍ່ຕ້ອງການຄຳແນະນຳລະອຽດຈາກມະນຸດໃນແຕ່ລະຂັ້ນຕອນ.

ອຳບຽງ AI (Ambient AI) ໝາຍເຖິງລະບົບ AI ທີ່ຝັງຕົວຢູ່ໃນສະພາບແວດລ້ອມຂອງຜູ້ໃຊ້ງານ, ຄອຍຕິດຕາມຂໍ້ມູນຈາກເຊັນເຊີ ແລະ ເຫດການຕ່າງໆ ພ້ອມທັງດຳເນີນການລ່ວງໜ້າໂດຍບໍ່ຕ້ອງມີຄຳສັ່ງທີ່ຊັດເຈນຈາກຜູ້ໃຊ້.

ການປຽບທຽບການນຳໃຊ້ Local LLM / SLM — ການໃຊ້ AI ໂດຍບໍ່ຂຶ້ນກັບ Cloud API

ATDD (Acceptance Test-Driven Development) ແມ່ນວິທີການພັດທະນາທີ່ທີມງານທັງໝົດກຳນົດເງື່ອນໄຂຂອງ acceptance test ກ່ອນເລີ່ມການພັດທະນາ, ຈາກນັ້ນຈຶ່ງທຳການ automate test ດັ່ງກ່າວກ່ອນດຳເນີນການ implement.