

ເຖິງແມ່ນວ່າ AI Agent ຈະສາມາດດຳເນີນວຽກງານຕ່າງໆ ໄດ້ຢ່າງອັດຕະໂນມັດແລ້ວກໍຕາມ, ແຕ່ການມອບໝາຍທຸກຢ່າງໃຫ້ Agent ດຽວກໍຍັງມີຂໍ້ຈຳກັດຢູ່.
ລອງພິຈາລະນາຄຳສັ່ງວ່າ "ສ້າງລາຍງານການວິເຄາະຄູ່ແຂ່ງ" ເປັນຕົວຢ່າງ. ການຄົ້ນຫາເວັບ, ການເກັບກຳຂໍ້ມູນ, ການວິເຄາະ, ການຂຽນເນື້ອຫາ, ການສ້າງຕາຕະລາງ ແລະ ກາຟ, ການກວດທານ, ການແກ້ໄຂ — ຫາກ Agent ດຽວດຳເນີນການທັງໝົດນີ້ຕໍ່ເນື່ອງກັນ, ຈະເຮັດໃຫ້ Context Window ຖືກໃຊ້ງານຢ່າງໜັກ, ຄວາມຜິດພາດທີ່ເກີດຂຶ້ນລະຫວ່າງທາງຈະສົ່ງຂໍ້ມູນຕໍ່ໃຫ້ຜົນລັບສຸດທ້າຍ, ແລະ ຍັງຍາກທີ່ຈະລະບຸໄດ້ວ່າເກີດຄວາມຜິດພາດຂຶ້ນຢູ່ຈຸດໃດ.
ຄືກັບທີ່ທີມງານມະນຸດດຳເນີນການຢ່າງເປັນທຳມະຊາດ, ການແບ່ງໜ້າທີ່ຮັບຜິດຊອບຈະໃຫ້ຜົນດີກວ່າ. ຜູ້ຮັບຜິດຊອບການຄົ້ນຄ້ວາ, ຜູ້ຮັບຜິດຊອບການວິເຄາະ, ຜູ້ຮັບຜິດຊອບການຂຽນ, ຜູ້ຮັບຜິດຊອບການກວດທານ. ແຕ່ລະຜູ້ຮັບຜິດຊອບຈະສຸມໃສ່ຄວາມຊ່ຽວຊານຂອງຕົນ ແລ້ວສົ່ງຕໍ່ຜົນງານໃຫ້ກັນ. Multi-Agent Architecture ຄືການນຳເອົາແນວຄິດນີ້ມາປະຍຸກໃຊ້ກັບລະບົບ AI.
ການອອກແບບ Role ໃນລະບົບ Multi-agent ນັ້ນແຕກຕ່າງກັນໄປຕາມການນຳໃຊ້ງານ ແຕ່ມີ 4 Role ພື້ນຖານທີ່ພົບເຫັນຮ່ວມກັນໃນການ Implement ສ່ວນໃຫຍ່. ມາເລີ່ມຈາກ Planner ແລະ Executor ກ່ອນເລີຍ.
Planner ແມ່ນສູນບັນຊາການທີ່ທຳໜ້າທີ່ແຍກ Goal ຂອງຜູ້ໃຊ້ງານອອກເປັນ Issue ຕ່າງໆ ແລະ ກຳນົດລຳດັບການດຳເນີນງານ. ສ່ວນ Executor ແມ່ນຜູ້ທີ່ດຳເນີນ Subtask ເຫຼົ່ານັ້ນຕົວຈິງ. Executor ຮັບຜິດຊອບການໂຕ້ຕອບກັບເຄື່ອງມືພາຍນອກ ເຊັ່ນ: ການຄົ້ນຫາເວັບ, ການເອີ້ນໃຊ້ API, ການ Execute Code ແລະ ອື່ນໆ ໂດຍອາດຈະມີ Executor ທີ່ຊ່ຽວຊານສະເພາະດ້ານຫຼາຍຕົວຕາມປະເພດຂອງ Task. Role ທັງສອງນີ້ມີໜ້າທີ່ທີ່ຊັດເຈນ ຈຶ່ງບໍ່ຄ່ອຍສ້າງຄວາມສັບສົນໃນຕອນທີ່ນຳໃຊ້ງານ.
ສ່ວນທີ່ເປັນບັນຫາຄືການອອກແບບ Critic (ຜູ້ວິຈານ). Critic ທຳໜ້າທີ່ປະເມີນ Output ຂອງ Executor ແລະ ຕັດສິນວ່າຄຸນນະພາບຜ່ານເກນທີ່ກຳນົດໄວ້ຫຼືບໍ່ ພ້ອມທັງສົ່ງ Feedback ກັບຄືນ. ເຖິງວ່າ Role ນີ້ຈະຄ້າຍຄືກັບ Code Reviewer ທີ່ເປັນມະນຸດ ແຕ່ຫາກບໍ່ລະບຸໃຫ້ຊັດເຈນໃນ Prompt ວ່າ "ຈະຖືວ່າຜ່ານດ້ວຍເງື່ອນໄຂໃດ" ກໍ່ຈະເກີດສະຖານະການທີ່ Executor ແລະ Critic ວົນຊ້ຳ Loop ການແກ້ໄຂໄປເລື້ອຍໆ. ຖ້ານຳ Critic ເຂົ້າມາໃຊ້ໂດຍທີ່ເກນການຕັດສິນຍັງບໍ່ທັນຊັດເຈນ ກໍ່ຈະເກີດການທີ່ Executor ຖາມວ່າ "ແບບນີ້ໄດ້ບໍ?" → Critic ຕອບວ່າ "ຍັງບໍ່ພຽງພໍ" ຊ້ຳໄປຊ້ຳມາໂດຍບໍ່ສິ້ນສຸດ ໃນຂະນະທີ່ Token ຖືກໃຊ້ໄປເລື້ອຍໆ. ກົດທີ່ຕ້ອງຍຶດໝັ້ນຄືການຂຽນເກນການຕັດສິນຂອງ Critic ໃຫ້ເປັນເງື່ອນໄຂການຜ່ານທີ່ຊັດເຈນ (ເຊັ່ນ: "Code ຜ່ານ Test", "ມີຫຼັກຖານຢ່າງໜ້ອຍ 3 ຂໍ້" ແລະ ອື່ນໆ) ລົງໃນ Prompt ໃຫ້ຄົບຖ້ວນ.
Verifier (ຜູ້ກວດສອບ) ມັກຖືກສັບສົນກັບ Critic ແຕ່ທັດສະນະຂອງທັງສອງແຕກຕ່າງກັນ. ໃນຂະນະທີ່ Critic ເບິ່ງຄຸນນະພາບຂອງ Subtask ແຕ່ລະອັນ, Verifier ທຳໜ້າທີ່ກວດສອບວ່າ Output ສຸດທ້າຍຕອບສະໜອງ Goal ເດີມທີ່ຕັ້ງໄວ້ຫຼືບໍ່. ສຳລັບ Report ການວິເຄາະ ກໍ່ຄືການກວດສອບຄວາມສອດຄ່ອງໂດຍລວມ ເຊັ່ນ: "ຕອບຄຳຖາມຂອງຜູ້ຮ້ອງຂໍໄດ້ຫຼືບໍ່" ແລະ "ບົດສະຫຼຸບກັບຫຼັກຖານສອດຄ່ອງກັນຫຼືບໍ່" ເປັນຕົ້ນ.

ຂຶ້ນຢູ່ກັບວິທີການລວມ ຫຼື Merge ບົດບາດຕ່າງໆ, ມີຮູບແບບມາດຕະຖານຫຼາຍຢ່າງ. ຖ້າບໍ່ແນ່ໃຈວ່າຈະເລືອກແບບໃດ, ແນະນຳໃຫ້ເລີ່ມຕົ້ນດ້ວຍຮູບແບບ Pipeline ກ່ອນ.
ເປັນໂຄງສ້າງທີ່ງ່າຍທີ່ສຸດ ທີ່ຂໍ້ມູນໄຫຼໄປທາງດຽວຕາມລຳດັບ Planner → Executor → Critic → Verifier. ເໝາະສຳລັບວຽກທີ່ມີຂັ້ນຕອນຊັດເຈນ ເຊັ່ນ: ການສ້າງລາຍງານ ຫຼື ການຂຽນເອກະສານ. ງ່າຍຕໍ່ການ Implement ແລະ Debug. ແຕ່ຖ້າຈຳເປັນຕ້ອງປ່ຽນທິດທາງຫຼັກໃນລະຫວ່າງຂະບວນການ ຫຼື Pipeline, ມີຄວາມສ່ຽງທີ່ຈະຕ້ອງເລີ່ມຕົ້ນໃໝ່ຈາກຕົ້ນ.
ເປັນໂຄງສ້າງທີ່ Executor ແລະ Critic ໂຕ້ຕອບກັນຊ້ຳໆ ຈົນກວ່າຈະຜ່ານມາດຕະຖານ ຫຼື Specification ດ້ານຄຸນນະພາບ. ໃຊ້ກັນຫຼາຍໃນ Use case ການສ້າງ Code. Executor ຂຽນ Code, Critic ກວດສອບ, ແລ້ວ Executor ແກ້ໄຂຖ້າມີບັນຫາ. ສ່ວນໃຫຍ່ຈະ Converge ພາຍໃນ 3 ຫາ 5 Iteration, ແຕ່ການກຳນົດຈຳນວນ Iteration ສູງສຸດເພື່ອປ້ອງກັນ Loop ບໍ່ສິ້ນສຸດນັ້ນເປັນສິ່ງຈຳເປັນ.
ເປັນໂຄງສ້າງທີ່ Planner ລະດັບສູງຄຸ້ມຄອງທີມ Agent ລະດັບລຸ່ມຫຼາຍທີມ. ສຳລັບໂຄງການຂະໜາດໃຫຍ່ ເຊັ່ນ: ການພັດທະນາ Application ທັງໝົດ, ແຕ່ລະທີມ Frontend, ທີມ Backend, ແລະ ທີມ Test ຈະມີຄູ່ Planner + Executor ຂອງຕົນເອງ ໂດຍ Planner ຫຼັກຈະເປັນຜູ້ປະສານງານທັງໝົດ. Claude Code ທີ່ມີຟັງຊັ່ນ Agent Team ແລະ CrewAI ໄດ້ນຳໃຊ້ຮູບແບບນີ້.
ເປັນໂຄງສ້າງທີ່ Agent ຫຼາຍຕົວສ້າງຄຳຕອບຢ່າງເປັນເອກະລາດຕໍ່ກັບບັນຫາດຽວກັນ ແລ້ວຈຶ່ງນຳຄຳຕອບເຫຼົ່ານັ້ນມາປຽບທຽບ ແລະ ລວມ ຫຼື Merge ກັນ. ມີປະສິດທິພາບສຳລັບບັນຫາທີ່ບໍ່ມີຄຳຕອບດຽວ ເຊັ່ນ: ການວາງຍຸດທະສາດ ຫຼື ວຽກສ້າງສັນ. ຄຳຕອບສຸດທ້າຍຖືກກຳນົດໂດຍວິທີການ ເຊັ່ນ: ການລົງຄະແນນສຽງຂ້າງຫຼາຍ, ການໃຫ້ຄະແນນ, ຫຼື ການລວມ ຫຼື Merge ໂດຍ Agent ອື່ນ. ຢ່າງໃດກໍ່ຕາມ, ເນື່ອງຈາກຄ່າໃຊ້ຈ່າຍສູງກວ່າຮູບແບບອື່ນ 2 ຫາ 3 ເທົ່າ, ຄວນຫຼີກລ່ຽງການນຳໃຊ້ຕັ້ງແຕ່ຕົ້ນ ຫາກບໍ່ມີເຫດຜົນຊັດເຈນວ່າຈະຊ່ວຍເພີ່ມຄວາມຖືກຕ້ອງ.

ໃນພາກກ່ອນໜ້ານີ້, ພວກເຮົາໄດ້ນຳສະເໜີຮູບແບບການອອກແບບ 4 ແບບ, ແຕ່ໄລຍະໃດກໍ່ຕາມທີ່ທ່ານເລືອກ, ຖ້າຫາກທ່ານເລື່ອນການອອກແບບການສື່ສານລະຫວ່າງ Agent ໄວ້ທ່ວງທ້າຍ, ທ່ານຈະຕິດຂັດຢ່າງແນ່ນອນໃນພາຍຫຼັງ. ນີ້ແມ່ນຈຸດສຳຄັນ ຫຼື ແກນຫຼັກທີ່ມັກຖືກມອງຂ້າມ.
ເມື່ອ Agent ແຕ່ລະຕົວສື່ສານກັນດ້ວຍຂໍ້ຄວາມທີ່ເປັນຮູບແບບເສລີ, ຄວາມຄາດເຄື່ອນໃນການຕີຄວາມໝາຍກໍ່ຈະເກີດຂຶ້ນ. ເມື່ອ Planner ສັ່ງວ່າ "ດຶງລາຍຊື່ຜູ້ໃຊ້ມາ", Executor ຈະດຶງທັງໝົດ, ສະເພາະຜູ້ໃຊ້ທີ່ active, ຫຼືລວມ field ໃດແດ່——ຄວາມບໍ່ຊັດເຈນດັ່ງກ່າວກໍ່ໃຫ້ເກີດຄວາມຜັນຜວນດ້ານຄຸນນະພາບ.
ໃນທາງປະຕິບັດ, ແນະນຳໃຫ້ກຳນົດ Schema ທີ່ມີໂຄງສ້າງ (ເຊັ່ນ: JSON Schema) ສຳລັບຂໍ້ຄວາມລະຫວ່າງ Agent. ໂປຣໂຕຄໍ A2A (Agent-to-Agent) ຂອງ Google ກຳລັງຖືກພັດທະນາໃຫ້ເປັນມາດຕະຖານ ຫຼື Specification ສຳລັບການສື່ສານລະຫວ່າງ Agent ຈາກຜູ້ຜະລິດຕ່າງໆ. MCP (Model Context Protocol) ຂອງ Anthropic ແມ່ນມາດຕະຖານ ຫຼື Specification ສຳລັບການເຊື່ອມຕໍ່ ຫຼື ຊິງຄ໌ຂໍ້ມູນລະຫວ່າງ Agent ກັບເຄື່ອງມືພາຍນອກ, ເຊິ່ງໄດ້ຖືກລວມເຂົ້າກັບ IDE ຫຼັກໆ ແລະ LLM client ຕ່າງໆໄປແລ້ວ. ໃນທາງກົງກັນຂ້າມ, A2A ຍັງຢູ່ໃນຂັ້ນຕອນທີ່ຜູ້ນຳໃຊ້ກ່ອນໃຜ (early adopter) ກຳລັງທົດລອງໃຊ້, ແລະກໍລະນີທີ່ນຳໄປໃຊ້ງານຈິງໃນ production ຍັງຈະມີຕາມມາໃນອະນາຄົດ.
ຢ່າງໃດກໍ່ຕາມ, ສຳລັບລະບົບຂະໜາດນ້ອຍ, ຫຼາຍຄັ້ງກໍ່ບໍ່ຈຳເປັນຕ້ອງນຳໂປຣໂຕຄໍດັ່ງກ່າວມາໃຊ້, ພຽງແຕ່ກຳນົດປະເພດຂໍ້ມູນ input/output ດ້ວຍ JSON Schema ກໍ່ພໍພຽງພໍ. ສິ່ງທີ່ສຳຄັນຄືການລະບຸໃຫ້ຊັດເຈນວ່າ "Agent ແຕ່ລະຕົວຄາດຫວັງຫຍັງຈາກກັນ", ບໍ່ແມ່ນຄວາມເປັນທາງການຂອງເຄື່ອງມືທີ່ໃຊ້.

ລະບົບ Multi-agent ມີຄວາມສາມາດສູງ, ແຕ່ສິ່ງທີ່ຢາກບອກກ່ອນເລີຍກໍຄື "ຢ່າຕັ້ງຄ່າແບບເຕັມຮູບແບບຕັ້ງແຕ່ຕົ້ນ". ກໍລະນີທີ່ຕັ້ງໂຄງສ້າງແບບ Planner + Executor × 5 + Critic + Verifier ຕັ້ງແຕ່ເລີ່ມຕົ້ນ ແລ້ວພັງເພາະຄ່າໃຊ້ຈ່າຍໃນການບຳລຸງຮັກສານັ້ນບໍ່ແມ່ນເລື່ອງແປກ. ໃຫ້ເລີ່ມດ້ວຍ Agent ດຽວກ່ອນ, ລະບຸຂັ້ນຕອນທີ່ຄຸນນະພາບຍັງບໍ່ພຽງພໍ, ຈາກນັ້ນຈຶ່ງແຍກ Role ສະເພາະຂັ້ນຕອນນັ້ນ. ນີ້ຄືວິທີທີ່ລົ້ມເຫລວໄດ້ຍາກທີ່ສຸດ.
ນອກຈາກນັ້ນ, ຂໍຍົກໃຫ້ເຫັນ 3 ສິ່ງທ້າທາຍທີ່ຈະພົບເຈາະເມື່ອເຂົ້າສູ່ການດຳເນີນງານຈິງ.
ສິ່ງທ້າທາຍທີ 1 ຄືການຂະຫຍາຍຕົວຂອງຄ່າໃຊ້ຈ່າຍ. ຍິ່ງມີ Agent ຫຼາຍຂຶ້ນ, ຈຳນວນການເອີ້ນໃຊ້ LLM API ກໍເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ. ຖ້າໃຊ້ Critic-in-the-loop ໃນໂຄງສ້າງ 3 Agent ແລ້ວ Iterate 5 ຄັ້ງ, ຄ່າໃຊ້ຈ່າຍຕໍ່ 1 Task ອາດເຖິງຫຼາຍຮ້ອຍເຢນສຳລັບໂມເດລລະດັບ GPT-4. ຄວນປະເມີນໂດຍໃຊ້ກໍລະນີຮ້າຍທີ່ສຸດ (ຈຳນວນ Iteration ສູງສຸດ × ຈຳນວນ Agent) ແລ້ວຄູນກັບຈຳນວນ Task ທີ່ຄາດວ່າຈະມີຕໍ່ເດືອນ ເພື່ອກວດສອບງົບປະມານ.
ສິ່ງທ້າທາຍທີ 2 ຄືຄວາມຍາກໃນການ Debug. ເມື່ອເກີດບັນຫາ, ການລະບຸວ່າຄວາມຜິດພາດເກີດຂຶ້ນທີ່ Agent ໃດ ແລະຂັ້ນຕອນໃດນັ້ນເປັນເລື່ອງຍາກ. ການບັນທຶກ Input/Output ຂອງແຕ່ລະ Agent ເປັນ Structured Log ຖືວ່າຈຳເປັນ, ໂດຍສະເພາະໃນກໍລະນີທີ່ Critic ຕັດສິນວ່າ "OK" ແຕ່ຜົນລັບສຸດທ້າຍຍັງຜິດປົກກະຕິ, ການຍ້ອນກັບໄປເບິ່ງ Input Log ຂອງ Critic ຈະຊ່ວຍໃຫ້ຊອກຫາສາເຫດໄດ້ງ່າຍຂຶ້ນ. ການໃຊ້ເຄື່ອງມືສັງເກດການ ເຊັ່ນ LangSmith ຫຼື Braintrust ຈະຊ່ວຍໃຫ້ເຫັນພາບລວມຂອງ Trace ທັງໝົດໄດ້.
ສິ່ງທ້າທາຍທີ 3 ຄືການປ້ອງກັນການທຳງານທີ່ຄວບຄຸມບໍ່ໄດ້. ມີຄວາມສ່ຽງທີ່ Planner ຈະສ້າງ Sub-task ໂດຍບໍ່ມີຂອບເຂດ, ຫຼື Executor ໂຍນ Task ໃຫ້ກັນໄປມາຈົນຕິດ Loop ບໍ່ຈົບ. Timeout, ຈຳນວນ Step ສູງສຸດ, ແລະ ຂອບເຂດງົບປະມານ — Guardrail ທັງ 3 ນີ້ ແນະນຳໃຫ້ຕັ້ງຄ່າໄວ້ຢ່າງໜ້ອຍ ບໍ່ວ່າລະບົບຈະນ້ອຍພຽງໃດກໍຕາມ.

ສຳລັບສະຖານະການທຸລະກິດທີ່ Multi-agent ມີປະສິດທິພາບ, ທີ່ນີ້ຈະຂໍລົງເລິກໃນການ Automate ລະບົບ Customer Support.
ໂຄງສ້າງທົ່ວໄປແມ່ນ 4 ຂັ້ນຕອນ ຄື: Triage Agent (ຈັດປະເພດຄຳຖາມ) → Research Agent (ຄົ້ນຫາ Knowledge Base) → Draft Agent (ສ້າງຮ່າງຄຳຕອບ) → Review Agent (ກວດສອບຄຸນນະພາບ). ພະນັກງານ Operator ຂອງມະນຸດຈະດຳເນີນການກວດສອບຂັ້ນສຸດທ້າຍເທົ່ານັ້ນ. ເບິ່ງຜ່ານໆ ໂຄງສ້າງນີ້ດູສະອາດຕາ, ແຕ່ເມື່ອລອງໃຊ້ງານຈິງ ສິ່ງທຳອິດທີ່ຕິດຂັດຄື Review Agent. ຫາກເກນການຕັດສິນຫຼວມເກີນໄປ, ຄຳຕອບທີ່ Draft Agent ສ້າງຂຶ້ນຊຶ່ງມີຂໍ້ມູນຜິດພາດກໍ່ຈະຜ່ານໄປໄດ້ໂດຍກົງ. ກົດລະບຽບທຳມະດາທີ່ວ່າ "ຄຳຕອບທີ່ສົ່ງໃຫ້ລູກຄ້າຕ້ອງບໍ່ມີຂໍ້ມູນຜິດພາດ" ກໍ່ຈະບໍ່ເຮັດວຽກ ຖ້າບໍ່ໄດ້ຂຽນລາຍການກວດສອບທີ່ຊັດເຈນໄວ້ໃນ Prompt ຂອງ Review Agent.
ໂຄງສ້າງນີ້ຍັງຖືກນຳໄປໃຊ້ໃນການພັດທະນາ Software ອີກດ້ວຍ. ໃນຮູບແບບ Planning Agent → Coding Agent → Testing Agent → Review Agent, ໂດຍ Claude Code ແລະ Devin ເປັນຕົວຢ່າງການນຳໃຊ້ Pattern ນີ້ໃນທາງປະຕິບັດ. ສຳລັບລາຍງານການສຳຫຼວດຕະຫຼາດ, ຂະບວນການ ຫຼື Pipeline ໃນຮູບແບບ Data Collection → Analysis → Writing → Fact-Check ກໍ່ສາມາດຫຼຸດເວລາຂອງຂະບວນການທີ່ຕ້ອງໃຊ້ຫຼາຍວັນດ້ວຍມືລົງເຫຼືອພຽງຫຼາຍຊົ່ວໂມງ.
ໃນທຸກກໍລະນີ, ລະບົບ Multi-agent ທີ່ເປັນອິດສະຫຼະຢ່າງສົມບູນນັ້ນ ສາມາດສ້າງໄດ້ໃນດ້ານເຕັກນິກ. ແຕ່ໃນສະຖານະການທີ່ກ່ຽວຂ້ອງກັບການຕັດສິນໃຈທາງທຸລະກິດ, ຄຳຕອບທີ່ Agent ກຳນົດວ່າດີທີ່ສຸດນັ້ນ ມັກຈະລະເລີຍ Context ຂອງອົງກອນ, ຮີດຄອງປະເພນີ, ແລະ ຄວາມຮູ້ສຶກຂອງ Stakeholder ຢູ່ເລື້ອຍໆ. "ຖືກຕ້ອງໃນດ້ານເຕັກນິກ" ກັບ "ເໝາະສົມໃນດ້ານທຸລະກິດ" ແມ່ນຄົນລະເລື່ອງກັນ. ດ້ວຍເຫດນີ້, ການຝັງຈຸດກວດສອບຂອງມະນຸດໄວ້ໃນລະບົບ ຈຶ່ງເປັນນະໂຍບາຍການດຳເນີນງານທີ່ຕົວຈິງທີ່ສຸດໃນຂະນະນີ້.
Yusuke Ishihara
ເລີ່ມຂຽນໂປຣແກຣມຕັ້ງແຕ່ອາຍຸ 13 ປີ ດ້ວຍ MSX. ຫຼັງຈົບການສຶກສາຈາກມະຫາວິທະຍາໄລ Musashi, ໄດ້ເຮັດວຽກໃນການພັດທະນາລະບົບຂະໜາດໃຫຍ່ ລວມທັງລະບົບຫຼັກຂອງສາຍການບິນ ແລະ ໂຄງສ້າງ Windows Server Hosting/VPS ທຳອິດຂອງຍີ່ປຸ່ນ. ຮ່ວມກໍ່ຕັ້ງ Site Engine Inc. ໃນປີ 2008. ກໍ່ຕັ້ງ Unimon Inc. ໃນປີ 2010 ແລະ Enison Inc. ໃນປີ 2025, ນຳພາການພັດທະນາລະບົບທຸລະກິດ, NLP ແລະ ແພລດຟອມ. ປັດຈຸບັນສຸມໃສ່ການພັດທະນາຜະลິດຕະພັນ ແລະ ການສົ່ງເສີມ AI/DX ໂດຍນຳໃຊ້ generative AI ແລະ LLM.
Chi
ສຳເລັດການສຶກສາສາຂາວິທະຍາສາດຄອມພິວເຕີ (Information Science) ຈາກມະຫາວິທະຍາໄລແຫ່ງຊາດລາວ ໂດຍໃນລະຫວ່າງການສຶກສາມີສ່ວນຮ່ວມໃນການພັດທະນາຊອບແວສະຖິຕິ (Statistical Software) ຈາກປະສົບການຕົວຈິງ ຈຶ່ງໄດ້ສ້າງພື້ນຖານດ້ານການວິເຄາະຂໍ້ມູນ (Data Analysis) ແລະ ການໂປຣແກຣມມິງ (Programming) ຢ່າງເຂັ້ມແຂງ. ຕັ້ງແຕ່ປີ 2021 ໄດ້ກ້າວເຂົ້າສູ່ເສັ້ນທາງການພັດທະນາ Web ແລະ ແອັບພລິເຄຊັນ (Application) ແລະ ຕັ້ງແຕ່ປີ 2023 ເປັນຕົ້ນມາ ໄດ້ສັ່ງສົມປະສົບການພັດທະນາຢ່າງເຕັມຮູບແບບທັງໃນດ້ານ Frontend ແລະ Backend. ໃນບໍລິສັດ ຮັບຜິດຊອບການອອກແບບ ແລະ ພັດທະນາ Web Service ທີ່ນຳໃຊ້ AI ພ້ອມທັງມີສ່ວນຮ່ວມໃນໂຄງການທີ່ປະສົມປະສານ ການປະມວນຜົນພາສາທຳມະຊາດ (NLP: Natural Language Processing), ການຮຽນຮູ້ຂອງເຄື່ອງ (Machine Learning), Generative AI ແລະ ໂມເດນພາສາຂະໜາດໃຫຍ່ (LLM: Large Language Model) ເຂົ້າກັບລະບົບທຸລະກິດ. ມີຄວາມກະຕືລືລົ້ນໃນການຕິດຕາມເທັກໂນໂລຊີໃໝ່ລ່າສຸດຢູ່ສະເໝີ ແລະ ໃຫ້ຄວາມສຳຄັນກັບຄວາມວ່ອງໄວໃນທຸກຂັ້ນຕອນ ຕັ້ງແຕ່ການທົດສອບດ້ານເທັກນິກ ຈົນເຖິງການນຳໄປໃຊ້ງານຈິງໃນລະບົບ Production.