
AI Guardrails ແມ່ນຄຳສັບລວມຂອງກົນໄກຄວາມປອດໄພທີ່ໃຊ້ໃນການກວດສອບ ແລະ ຄວບຄຸມການປ້ອນຂໍ້ມູນ (Input) ແລະ ການສະແດງຜົນ (Output) ຂອງແອັບພລິເຄຊັນ LLM ເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງຕ່າງໆ ເຊັ່ນ: Prompt Injection ແລະ Hallucination.
ໃນຂະນະທີ່ການນຳ Generative AI ມາໃຊ້ງານຈິງກຳລັງເລັ່ງຕົວຂຶ້ນ, ກໍມີລາຍງານກໍລະນີທີ່ແອັບພລິເຄຊັນຖືກປ່ອຍອອກມາໂດຍບໍ່ມີມາດຕະການປ້ອງກັນຄວາມປອດໄພທີ່ເໝາະສົມ ເຊິ່ງນຳໄປສູ່ການຖືກໂຈມຕີ ຫຼື ການແຜ່ກະຈາຍຂໍ້ມູນທີ່ຜິດພາດ. ບົດຄວາມນີ້ມີຈຸດປະສົງສຳລັບວິສະວະກອນ ແລະ ຜູ້ຈັດການຜະລິດຕະພັນ (Product Manager) ທີ່ກ່ຽວຂ້ອງກັບການອອກແບບ, ການພັດທະນາ ແລະ ການດຳເນີນງານຂອງແອັບພລິເຄຊັນ LLM ໂດຍຈະອະທິບາຍຕັ້ງແຕ່ການກຳນົດ Threat Model ໄປຈົນເຖິງການປ້ອງກັນ Input/Output, ການສ້າງຊຸດຂໍ້ມູນສຳລັບການປະເມີນຜົນ (Evaluation Set) ແລະ ການຮອງຮັບ Multi-tenant ຈາກມຸມມອງຂອງການຈັດຕັ້ງປະຕິບັດຈິງ. ຫຼັງຈາກອ່ານຈົບ, ທ່ານຈະໄດ້ຮັບໂຄງຮ່າງການອອກແບບທີ່ສາມາດນຳໄປປັບໃຊ້ກັບບໍລິການຂອງບໍລິສັດທ່ານໄດ້ທັນທີ.
ເພື່ອອອກແບບ Guardrail ໃຫ້ຖືກຕ້ອງ, ກ່ອນອື່ນໝົດຈຳເປັນຕ້ອງມີຄວາມຊັດເຈນວ່າ "ຈະປົກປ້ອງຫຍັງ". ຖ້າເລີ່ມການຈັດຕັ້ງປະຕິບັດໂດຍບໍ່ໄດ້ກວດສອບຄວາມສ່ຽງຂອງທັງຂາເຂົ້າ ແລະ ຂາອອກໃຫ້ລະອຽດ, ມັນຈະງ່າຍທີ່ຈະເກີດການສະກັດກັ້ນທີ່ເກີນຄວາມຈຳເປັນ ຫຼື ເກີດການຕົກຫຼົ່ນໄດ້.
ສິ່ງທີ່ຄວນເຮັດໃນເບື້ອງຕົ້ນແມ່ນການຈັດລະບຽບຂໍ້ມູນທີ່ແອັບພລິເຄຊັນ LLM ຂອງບໍລິສັດທ່ານນຳໃຊ້ ແລະ ຜູ້ໃຊ້ທີ່ຄາດໄວ້. ຈາກນັ້ນ, ໃຫ້ເຮັດການ Mapping ເສັ້ນທາງທີ່ໄພຂົ່ມຂູ່ຕ່າງໆ ເຊັ່ນ: Prompt Injection ຫຼື Hallucination ອາດຈະເກີດຂຶ້ນໄດ້. ຖ້າລະເລີຍວຽກງານພື້ນຖານເຫຼົ່ານີ້, ມັນມີແນວໂນ້ມທີ່ຕົ້ນທຶນໃນການຈັດຕັ້ງປະຕິບັດໃນຂັ້ນຕອນຕໍ່ໄປຈະເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ.
ກ່ອນທີ່ຈະອອກແບບ Guardrail, ກ່ອນອື່ນໝົດຕ້ອງມີຄວາມຊັດເຈນວ່າ "ຈະປົກປ້ອງຫຍັງ". ທັງຂາເຂົ້າ ແລະ ຂາອອກລ້ວນແຕ່ມີສິ່ງທີ່ຕ້ອງປົກປ້ອງ ແລະ ແຕ່ລະຢ່າງກໍມີລັກສະນະທີ່ແຕກຕ່າງກັນ.
ສິ່ງທີ່ຕ້ອງປົກປ້ອງຢູ່ຝັ່ງຂາເຂົ້າ (Input)
ສິ່ງທີ່ຕ້ອງປົກປ້ອງຢູ່ຝັ່ງຂາອອກ (Output)
ໃນການປະຕິບັດເພື່ອຈັດລະບຽບ, ຄວນເລີ່ມຈາກການແຕ້ມແຜນວາດ Data Flow ຂອງແອັບພລິເຄຊັນຕົນເອງ ແລະ ກວດສອບແຕ່ລະຈຸດເຊື່ອມຕໍ່ລະຫວ່າງ "User Input → LLM → External System". ຖ້າຫາກນຳເອົາໄພຄຸກຄາມຂ້າງເທິງມາປັບໃຊ້ໃນແຕ່ລະຈຸດເຊື່ອມຕໍ່, ລະດັບຄວາມສຳຄັນຈະປາກົດອອກມາເອງໂດຍທຳມະຊາດ. OWASP LLM Top 10 ມີຄຸນຄ່າສູງໃນການນຳມາອ້າງອີງເປັນຈຸດເລີ່ມຕົ້ນຂອງການຈັດລະບຽບນີ້.
ໃນພາກຕໍ່ໄປ, ພວກເຮົາຈະກ້າວໄປສູ່ຂັ້ນຕອນການກວດສອບສະຖານະປັດຈຸບັນຂອງແອັບພລິເຄຊັນທີ່ມີຢູ່.
ກ່ອນທີ່ຈະເລີ່ມຕົ້ນອອກແບບ Guardrail, ການເຂົ້າໃຈ "ຈຸດທີ່ຕັ້ງຢູ່" ຂອງແອັບພລິເຄຊັນທີ່ມີຢູ່ນັ້ນແມ່ນສິ່ງທີ່ຂາດບໍ່ໄດ້. ຖ້າຫາກດຳເນີນການພັດທະນາໂດຍປ່ອຍໃຫ້ຈຸດບອດໃນການອອກແບບຄົງຢູ່, ມັນຈະເຮັດໃຫ້ເກີດການແກ້ໄຂງານຂະໜາດໃຫຍ່ໃນຂະບວນການຫຼັງຈາກນັ້ນໄດ້ງ່າຍ. ກ່ອນອື່ນໝົດ, ໃຫ້ທຳການກວດສອບສະຖານະປັດຈຸບັນ ແລະ ຈຳກັດຂອບເຂດບັນຫາທີ່ສຳຄັນ.
ຈຸດສຳຄັນທີ່ຄວນກວດສອບ
ວິທີການດຳເນີນການກວດສອບ
ໃຫ້ທຳການທົບທວນ Codebase ທີ່ມີຢູ່, ລະບຸເນື້ອຫາຂອງ System Prompt, ຄວາມຖີ່ໃນການອັບເດດ ແລະ ຜູ້ເບິ່ງແຍງລະບົບ. ພ້ອມດຽວກັນນັ້ນ, ໃຫ້ກວດສອບວ່າການປ້ອນຂໍ້ມູນຈາກຜູ້ໃຊ້ຖືກນຳໄປເຊື່ອມຕໍ່ກັບ Prompt ໂດຍບໍ່ມີການກວດສອບ (Validation) ຫຼືບໍ່. ໃນຂັ້ນຕອນນີ້, ມັກຈະພົບເຫັນເສັ້ນທາງການບຸກລຸກຂອງ Prompt Injection ຫຼາຍກໍລະນີ.
ຖ້າຫາກມີ Log ຢູ່ແລ້ວ, ໃຫ້ທຳການສຸ່ມຕົວຢ່າງການສົນທະນາໃນອະດີດເພື່ອສະກັດຮູບແບບຜົນລັດທີ່ມີບັນຫາອອກມາ. ຖ້າຫາກຍັງບໍ່ມີ Log, ໃຫ້ຈັດລຳດັບຄວາມສຳຄັນໃນການພັດທະນາລະບົບການບັນທຶກ Log ການປ້ອນເຂົ້າ-ອອກຂັ້ນພື້ນຖານກ່ອນ. ການອອກແບບ Guardrail ໂດຍບໍ່ເຂົ້າໃຈສະຖານະປັດຈຸບັນ ມີຄວາມສ່ຽງສູງທີ່ຈະເຮັດໃຫ້ມອງຂ້າມຈຸດທີ່ຄວນປົກປ້ອງໄປ.
ການອອກແບບ Guardrail ຈະສາມາດນຳໄປຂຽນເປັນໂຄ້ດໄດ້ ກໍຕໍ່ເມື່ອມີການກຳນົດໃຫ້ຊັດເຈນເສຍກ່ອນວ່າ "ຈະປົກປ້ອງຫຍັງ". ໃນພາກນີ້, ພວກເຮົາຈະອະທິບາຍຕາມລຳດັບ 3 ຂັ້ນຕອນ ຕັ້ງແຕ່ການກຳນົດ Threat Model ໄປຈົນເຖິງການຈັດຕັ້ງປະຕິບັດ Guard ສຳລັບ Input ແລະ Output. ເຖິງແມ່ນວ່າແຕ່ລະຂັ້ນຕອນຈະເບິ່ງຄືວ່າເປັນອິດສະຫຼະຕໍ່ກັນ, ແຕ່ຂໍໃຫ້ຈື່ໄວ້ວ່າຂະບວນການນີ້ເປັນຂະບວນການແບບວົນຊ້ຳ (Iterative process) ທີ່ການອອກແບບໃນຂັ້ນຕອນຫຼັງອາດສົ່ງຜົນໃຫ້ຕ້ອງກັບມາທົບທວນຂັ້ນຕອນກ່ອນໜ້ານັ້ນຄືນໃໝ່.
ຂັ້ນຕອນທຳອິດຂອງການຈັດຕັ້ງປະຕິບັດ Guardrail ແມ່ນການສ້າງ Threat Model ໂດຍການຈັດລະບຽບເປົ້າໝາຍທີ່ຕ້ອງປົກປ້ອງ ແລະ ເສັ້ນທາງການໂຈມຕີ. ການວາງຟິວເຕີຊ້ອນກັນໂດຍບໍ່ມີການອອກແບບມາກ່ອນ ມີຄວາມສ່ຽງສູງທີ່ຈະເຮັດໃຫ້ເບິ່ງຂ້າມຊ່ອງໂຫວ່ທີ່ສຳຄັນ.
ກ່ອນອື່ນໝົດ, ໃຫ້ກວດສອບເສັ້ນທາງການປ້ອນຂໍ້ມູນທັງໝົດທີ່ແອັບພລິເຄຊັນໄດ້ຮັບ. ບໍ່ພຽງແຕ່ການປ້ອນຂໍ້ມູນໂດຍກົງຈາກຜູ້ໃຊ້ເທົ່ານັ້ນ, ແຕ່ເອກະສານພາຍນອກທີ່ໄດ້ມາຈາກ RAG ແລະ API Response ກໍສາມາດກາຍເປັນພື້ນທີ່ການໂຈມຕີໄດ້ເຊັ່ນກັນ. ນີ້ແມ່ນເສັ້ນທາງຕົ້ນແບບຂອງ Indirect Injection.
ຕໍ່ມາ, ໃຫ້ຈັດປະເພດໄພຂົ່ມຂູ່ໂດຍອີງໃສ່ OWASP LLM Top 10. ລາຍການທີ່ມີຄວາມສຳຄັນສູງມີດັ່ງນີ້:
ໄພຂົ່ມຂູ່ແຕ່ລະຢ່າງຈະຖືກມອບໝາຍຄະແນນຄວາມສ່ຽງ (Risk Score) ໂດຍການນຳເອົາ "ໂອກາດເກີດຂຶ້ນ" ຄູນກັບ "ລະດັບຜົນກະທົບ" ເພື່ອກຳນົດລຳດັບຄວາມສຳຄັນໃນການແກ້ໄຂ. ຖ້າປະຕິບັດຕໍ່ທຸກໄພຂົ່ມຂູ່ໃນລະດັບດຽວກັນ ຈະເຮັດໃຫ້ຕົ້ນທຶນໃນການຈັດຕັ້ງປະຕິບັດເພີ່ມຂຶ້ນ ແລະ ມີແນວໂນ້ມທີ່ຈະບໍ່ສຳເລັດໃນຂັ້ນຕອນ MVP (Minimum Viable Product).
ສຸດທ້າຍ, ໃຫ້ແຕ້ມແຜນວາດ Trust Boundary. ການລະບຸໃຫ້ຊັດເຈນວ່າອົງປະກອບໃດທີ່ເຊື່ອຖືໄດ້ ແລະ ສ່ວນໃດເປັນເຂດທີ່ບໍ່ໜ້າເຊື່ອຖື ຈະຊ່ວຍໃຫ້ການອອກແບບ Input Guardrail ໃນຂັ້ນຕອນທີ 2 ເປັນຕົ້ນໄປມີຄວາມຊັດເຈນຍິ່ງຂຶ້ນ.
Input Guardrails ແມ່ນຊັ້ນປ້ອງກັນທີ່ກວດຈັບ ແລະ ສະກັດກັ້ນຄຳຮ້ອງຂໍທີ່ເປັນອັນຕະລາຍກ່ອນທີ່ການປ້ອນຂໍ້ມູນຂອງຜູ້ໃຊ້ຈະໄປເຖິງ LLM. ເນື່ອງຈາກສາມາດຢຸດຄວາມສ່ຽງຂອງ Prompt Injection ແລະ ການຮົ່ວໄຫຼຂອງຂໍ້ມູນລັບໄດ້ຕັ້ງແຕ່ຕົ້ນທາງ, ມັນຈຶ່ງມີບຸລິມະສິດໃນການຈັດຕັ້ງປະຕິບັດສູງ.
ຫົວຂໍ້ການກວດສອບຫຼັກສາມາດແບ່ງອອກໄດ້ເປັນ 4 ຢ່າງດັ່ງນີ້:
ສຳລັບວິທີການຈັດຕັ້ງປະຕິບັດ, ການອ້າງອີງຕາມການຈັດປະເພດ LLM Top 10 ທີ່ເຜີຍແຜ່ໂດຍ OWASP, ຈາກນັ້ນເລີ່ມຮັບມືກັບຮູບແບບທີ່ມີຄວາມສ່ຽງສູງດ້ວຍ Rule-based ກ່ອນ, ແລະ ໃນກໍລະນີທີ່ການຕັດສິນໃຈເຮັດໄດ້ຍາກ ຄວນໃຊ້ SLM ຂະໜາດນ້ອຍ ຫຼື Model ການຈັດປະເພດສະເພາະທາງມາເສີມຈະມີຄວາມເປັນໄປໄດ້ຫຼາຍກວ່າ. ການໃຊ້ Framework ສຳລັບ LLM Red Teaming ເຊັ່ນ PyRIT ຫຼື Garak ເພື່ອເຮັດໃຫ້ການທົດສອບຂອບເຂດ (Boundary Test) ເປັນອັດຕະໂນມັດ ຈະຊ່ວຍໃຫ້ສາມາດກວດສອບຊ່ອງໂຫວ່ຂອງກົດລະບຽບໄດ້ຢ່າງຕໍ່ເນື່ອງ.
ຂໍ້ຄວນລະວັງຄື Input Guardrails ມັກຈະຕົກຢູ່ໃນສະພາວະປ້ອງກັນເກີນຄວາມຈຳເປັນ (Over-guarding) ຖ້າຕັ້ງເປົ້າໝາຍໃຫ້ມີການກວດຈັບຜິດພາດເປັນສູນ. ຄວນປັບລະດັບ Threshold ເປັນຂັ້ນຕອນ ແລະ ອອກແບບວົງຈອນການດຳເນີນງານທີ່ນຳເອົາບັນທຶກການສະກັດກັ້ນທີ່ຜິດພາດ (False-positive logs) ມາລວມເຂົ້າໃນຊຸດການປະເມີນຜົນຕັ້ງແຕ່ໄລຍະເລີ່ມຕົ້ນ. ໃນຂັ້ນຕອນທີ 3 ຕໍ່ໄປ, ພວກເຮົາຈະອະທິບາຍກ່ຽວກັບການປ້ອງກັນທາງດ້ານ Output ຫຼັງຈາກທີ່ LLM ໄດ້ສ້າງເນື້ອຫາອອກມາແລ້ວ.
ການສົ່ງຄືນຄຳຕອບທີ່ LLM ສ້າງຂຶ້ນໂດຍກົງນັ້ນ ມີຄວາມສ່ຽງບໍ່ຕ່າງຫຍັງກັບ Input Guard. Output Guardrails ເປັນດ່ານສຸດທ້າຍໃນການກວດສອບ "ສິ່ງທີ່ໂມເດວສົ່ງຄືນ" ເພື່ອບລັອກ ຫຼື ປ່ຽນແປງເນື້ອຫາທີ່ມີບັນຫາ.
ລາຍການກວດສອບຫຼັກ
ຂໍ້ຄວນລະວັງໃນການຈັດຕັ້ງປະຕິບັດ
Output Guard ມີຜົນໂດຍກົງຕໍ່ Latency. ການຈັດລຽງການກວດສອບຫຼາຍຢ່າງຕໍ່ກັນແບບອະນຸກົມ (Serial) ມັກຈະເຮັດໃຫ້ເວລາໃນການຕອບສະໜອງເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ, ດັ່ງນັ້ນ ການຈັດໃຫ້ການກວດສອບແບບ Rule-based ທີ່ມີນ້ຳໜັກເບົາເຮັດວຽກກ່ອນ ແລະ ໃຊ້ການປະເມີນຜົນດ້ວຍໂມເດວ ML ທີ່ມີນ້ຳໜັກຫຼາຍໃນການວິເຄາະ Log ແບບບໍ່ຂະໜານ (Asynchronous) ຈຶ່ງເປັນໂຄງສ້າງທີ່ມີປະສິດທິພາບ. ນອກຈາກນີ້, ການບັນທຶກເຫດຜົນຂອງການຕັດສິນໃຈບລັອກໄວ້ໃນ Log ຈະຊ່ວຍໃຫ້ເຂົ້າໃຈແນວໂນ້ມຂອງການບລັອກທີ່ຜິດພາດໃນການທົດສອບ Regression ຢ່າງຕໍ່ເນື່ອງທີ່ກ່າວເຖິງໃນພາຍຫຼັງໄດ້ງ່າຍຂຶ້ນ.
Guardrails ບໍ່ແມ່ນສິ່ງທີ່ເຮັດແລ້ວຈົບໄປ ແຕ່ການປະເມີນຜົນ ແລະ ວົງຈອນການປັບປຸງຢ່າງຕໍ່ເນື່ອງຈະເປັນສິ່ງທີ່ຮັກສາຄຸນນະພາບໄວ້. ດ້ວຍການອັບເກຣດເວີຊັນຂອງໂມເດວ ແລະ ການປະກົດຕົວຂອງຮູບແບບການໂຈມຕີໃໝ່ໆ, ອາດຈະເກີດກໍລະນີທີ່ຮົ້ວກັ້ນຄວາມປອດໄພທີ່ເຄີຍໃຊ້ງານໄດ້ໃນມື້ວານນີ້ ບໍ່ສາມາດໃຊ້ງານໄດ້ໃນມື້ນີ້. ໃນພາກນີ້, ພວກເຮົາຈະຈັດລະບຽບກົນໄກທີ່ຈຳເປັນໃນໄລຍະການດຳເນີນງານ ເລີ່ມຕັ້ງແຕ່ການອອກແບບຊຸດການປະເມີນຜົນ ໄປຈົນເຖິງການສ້າງ Dashboard ສຳລັບຕິດຕາມກວດກາ.
Guardrails ບໍ່ແມ່ນສິ່ງທີ່ຕິດຕັ້ງເທື່ອດຽວແລ້ວຈົບ. ເນື່ອງຈາກພຶດຕິກຳຈະປ່ຽນແປງທຸກຄັ້ງທີ່ມີການອັບເດດ Model ຫຼື ປ່ຽນແປງ Prompt, ການທົດສອບ Regression ຢ່າງຕໍ່ເນື່ອງ ຈຶ່ງເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້.
ຊຸດການປະເມີນຜົນຄວນປະກອບດ້ວຍ 3 ໝວດໝູ່ດັ່ງນີ້:
ຂະໜາດຂອງຊຸດການປະເມີນຜົນບໍ່ຈຳເປັນຕ້ອງໃຫຍ່ ແຕ່ສິ່ງທີ່ສຳຄັນຄື ຕ້ອງບັນຈຸແຕ່ລະໝວດໝູ່ໃຫ້ເທົ່າທຽມກັນ. ຖ້າຫາກເນັ້ນໜັກແຕ່ກຸ່ມໂຈມຕີພຽງຢ່າງດຽວ ຈະເຮັດໃຫ້ບໍ່ສາມາດເຫັນອັດຕາການສະກັດກັ້ນທີ່ຜິດພາດຂອງກຸ່ມປົກກະຕິໄດ້.
ການທົດສອບ Regression ຢ່າງຕໍ່ເນື່ອງຈະຖືກນຳໄປລວມເຂົ້າໃນ CI/CD ຂະບວນການ ຫຼື Pipeline. ໂດຍສະເພາະແລ້ວ ຂັ້ນຕອນຕໍ່ໄປນີ້ແມ່ນເປັນທີ່ນິຍົມ:
ຊຸດການປະເມີນຜົນຕ້ອງໄດ້ຮັບການປະຕິບັດໃນຖານະ "ເອກະສານທີ່ມີຊີວິດ". ເນື່ອງຈາກວິທີການໂຈມຕີມີການພັດທະນາຢູ່ສະເໝີ, ການດຳເນີນງານໂດຍການອ້າງອີງເຖິງ Benchmark ທີ່ເປີດເຜີຍເຊັ່ນ HarmBench ຢ່າງສະໝໍ່າສະເໝີຈຶ່ງເປັນສິ່ງທີ່ຄວນເຮັດ.
ນອກຈາກນີ້, ໃນການປະເມີນຜົນ Output Guardrails ທີ່ລວມເຖິງການກວດສອບ Grounding, ການເພີ່ມຄະແນນຄວາມສອດຄ່ອງກັບຜົນການຄົ້ນຫາຂອງ RAG ເຂົ້າໄປໃນດັດຊະນີຊີ້ວັດ ຈະຊ່ວຍໃຫ້ສາມາດຕິດຕາມຜົນກະທົບໃນການຍັບຍັ້ງການເກີດ Hallucination ໄດ້ຢ່າງເປັນຮູບປະທຳຫຼາຍຂຶ້ນ.
ເພື່ອຮັກສາປະສິດທິພາບຂອງ Guardrail ໃຫ້ຍືນຍົງ, ຈຳເປັນຕ້ອງມີກົນໄກໃນການເບິ່ງເຫັນສະຖານະການດຳເນີນງານ ແລະ ກວດຈັບຄວາມຜິດປົກກະຕິໄດ້ໃນທັນທີ. ເຖິງແມ່ນວ່າການຕັ້ງຄ່າຈະຜ່ານການທົດສອບດ້ວຍຊຸດຂໍ້ມູນປະເມີນຜົນແລ້ວ, ແຕ່ໃນການໃຊ້ງານຈິງ (Production traffic) ກໍອາດຈະພົບຮູບແບບທີ່ບໍ່ຄາດຄິດເກີດຂຶ້ນໄດ້. Dashboard ແລະ Alert ຈຶ່ງເຮັດໜ້າທີ່ເປັນ "ສາຍຕາໃນການດຳເນີນງານ".
ຕົວຊີ້ວັດຫຼັກທີ່ຄວນຕິດຕາມ (Monitoring)
ນະໂຍບາຍພື້ນຖານໃນການອອກແບບ Alert
ມັກຈະມີການຕັ້ງຄ່າ Threshold ໂດຍອີງໃສ່ ອັດຕາການປ່ຽນແປງແບບສຳພັດທຽບກັບຄ່າສະເລ່ຍເຄື່ອນທີ່ (Moving Average) ໃນຮອບ 7 ວັນທີ່ຜ່ານມາ ແທນທີ່ຈະໃຊ້ຄ່າຄົງທີ່ (Absolute value). ວິທີນີ້ຈະຊ່ວຍຫຼຸດຜ່ອນການແຈ້ງເຕືອນທີ່ຜິດພາດຈາກການປ່ຽນແປງຕາມທຳມະຊາດໃນແຕ່ລະມື້ ຫຼື ຊ່ວງເວລາໄດ້.
ຕົວຢ່າງການແຈ້ງເຕືອນທີ່ແນະນຳ:
ແນວຄວາມຄິດໃນການຈັດໂຄງສ້າງ Dashboard
ນຳໃຊ້ເຄື່ອງມືທີ່ຮອງຮັບ AI Observability ເຊັ່ນ Grafana ຫຼື Datadog, ແລະ ສ້າງໂຄງສ້າງທີ່ສາມາດ Drill-down ແຍກຕາມ Tenant ຫຼື Endpoint ໄດ້. ໃນ Log ຕ້ອງລະບຸ Request ID, Tenant ID ແລະ ເຫດຜົນໃນການຕັດສິນໃຈຂອງ Guardrail ໄວ້ສະເໝີ ເພື່ອໃຫ້ງ່າຍຕໍ່ການກວດສອບສາເຫດໃນພາຍຫຼັງ. ຫາກມີຂໍ້ມູນສ່ວນບຸກຄົນລວມຢູ່, ຕ້ອງດຳເນີນການ Masking ຂໍ້ມູນໃນ Log ໃຫ້ຮຽບຮ້ອຍ.
ກັບດັກທີ່ມັກພົບເລື້ອຍໃນການນຳໃຊ້ Guardrail ສາມາດສະຫຼຸບໄດ້ເປັນສອງປະການໃຫຍ່ ຄື: "ການຕັດການເຮັດວຽກທີ່ຜິດພາດເນື່ອງຈາກການທົດສອບບໍ່ພຽງພໍ" ແລະ "ປະສົບການຜູ້ໃຊ້ (UX) ທີ່ຫຼຸດລົງເນື່ອງຈາກການປ້ອງກັນທີ່ຫຼາຍເກີນໄປ". ທັງສອງກໍລະນີມັກຈະຖືກມອງຂ້າມໃນຂັ້ນຕອນການອອກແບບ ແລະ ມັກຈະປາກົດໃຫ້ເຫັນຫຼັງຈາກການນຳໃຊ້ງານຈິງເທົ່ານັ້ນ. ໃນຫົວຂໍ້ H3 ຕໍ່ໄປນີ້, ພວກເຮົາຈະເຈາະເລິກເຖິງຮູບແບບຄວາມຜິດພາດແຕ່ລະຢ່າງ ແລະ ມາດຕະການແກ້ໄຂທີ່ເປັນຮູບປະທຳ.
ມີລາຍງານກໍລະນີທີ່ການນຳໃຊ້ Guardrail ເຂົ້າສູ່ລະບົບການຜະລິດຢ່າງຮີບດ່ວນ ສົ່ງຜົນໃຫ້ມີການສະກັດກັ້ນຄຳຮ້ອງຂໍຂອງຜູ້ໃຊ້ປົກກະຕິຢ່າງຜິດພາດ. ສາເຫດສ່ວນໃຫຍ່ແມ່ນມາຈາກ "ຂໍ້ມູນການທົດສອບບໍ່ພຽງພໍ" ແລະ "ການລະເລີຍການທົດສອບຂອບເຂດ (Boundary Testing)".
ຮູບແບບທີ່ມັກເກີດການສະກັດກັ້ນຜິດພາດ
ສາເຫດຮາກເຫງົ້າແມ່ນຄວາມບໍ່ສົມດຸນຂອງຊຸດການປະເມີນຜົນ
ຖ້າຊຸດການປະເມີນຜົນທີ່ສ້າງຂຶ້ນໃນຂັ້ນຕອນ PoC (ການພິສູດແນວຄວາມຄິດ) ເນັ້ນໜັກໄປທີ່ຮູບແບບການໂຈມຕີຫຼາຍເກີນໄປ, ອັດຕາການກວມລວມຂອງລະບົບປົກກະຕິຈະຕ່ຳລົງ. ກໍລະນີຕົວຢ່າງທີ່ພົບເລື້ອຍຄື ການສຸມໃສ່ການປ້ອງກັນ Prompt Injection ຫຼາຍເກີນໄປ ຈົນບໍ່ໄດ້ເກັບກຳຄວາມຫຼາກຫຼາຍຂອງການສົນທະນາຂອງຜູ້ໃຊ້ໃນຊີວິດປະຈຳວັນຢ່າງພຽງພໍ.
ລຳດັບຄວາມສຳຄັນຂອງມາດຕະການປ້ອງກັນ
ການສະກັດກັ້ນຜິດພາດຈະສົ່ງຜົນເສຍຕໍ່ປະສົບການຂອງຜູ້ໃຊ້ໃນທັນທີ. ເນື່ອງຈາກມັນເປັນສິ່ງທີ່ຄູ່ກັນກັບບັນຫາ "ການປ້ອງກັນເກີນຄວາມຈຳເປັນ" (Over-guarding) ທີ່ຈະກ່າວເຖິງໃນພາກຕໍ່ໄປ, ການບໍລິຫານຈັດການທັງສອງຢ່າງນີ້ຄວບຄູ່ກັນຕັ້ງແຕ່ຂັ້ນຕອນການອອກແບບ KPI ຈຶ່ງມີຄວາມສຳຄັນຫຼາຍ.
ຖ້າຕັ້ງຄ່າ Guardrail ເຂັ້ມງວດເກີນໄປ ຈະເຮັດໃຫ້ການໃຊ້ງານຂອງຜູ້ໃຊ້ທີ່ຖືກຕ້ອງຖືກສະກັດກັ້ນ ແລະ ເຮັດໃຫ້ປະສິດທິພາບການໃຊ້ງານຂອງແອັບພລິເຄຊັນຫຼຸດລົງຢ່າງຫຼວງຫຼາຍ. ມີລາຍງານກໍລະນີທີ່ຄວາມຕັ້ງໃຈ "ເພື່ອຄວາມປອດໄພ" ກັບກາຍເປັນສາເຫດທີ່ເຮັດໃຫ້ຜູ້ໃຊ້ເລີກໃຊ້ງານ.
ບັນຫາທົ່ວໄປທີ່ເກີດຈາກການປ້ອງກັນທີ່ຫຼາຍເກີນໄປ
ສະຖານະການເຫຼົ່ານີ້ມັກຈະເກີດຂຶ້ນເມື່ອຕັ້ງຄ່າ Threshold ຂອງ Prompt Firewall ຕ່ຳເກີນໄປ ຫຼື ເມື່ອນຳກົດລະບຽບຂອງ Guardrail ໄປໃຊ້ໃນລະບົບຈິງໂດຍບໍ່ມີການປັບໃຫ້ເຂົ້າກັບບໍລິບົດຂອງໂດເມນ (Domain context).
ວິທີການຮັບປະກັນຄວາມປອດໄພໄປພ້ອມກັບການຮັກສາ UX
ໃນຊຸດການປະເມີນຜົນ (Evaluation set) ຕ້ອງມີ "ອັດຕາການສະກັດກັ້ນຄຳຮ້ອງຂໍທີ່ຖືກຕ້ອງຜິດພາດ (False Positive Rate)" ລວມຢູ່ດ້ວຍສະເໝີ ແລະ ຄວນຕິດຕາມກວດກາຄຽງຄູ່ກັບຄະແນນຄວາມປອດໄພ. ຄວາມປອດໄພ ແລະ ຄວາມສະດວກສະບາຍບໍ່ແມ່ນ ການແລກປ່ຽນ ຫຼື Trade-off ແຕ່ສາມາດເຮັດໃຫ້ສົມດູນກັນໄດ້ດ້ວຍການປັບຈູນ Threshold ແລະ ການທົດສອບ Regression ຢ່າງຕໍ່ເນື່ອງ. ໃນການນຳໄປໃຊ້ກັບສະພາບແວດລ້ອມ Multi-tenant ໃນຄັ້ງຕໍ່ໄປ ການອອກແບບຄວາມສົມດູນນີ້ຈະມີຄວາມຊັບຊ້ອນຫຼາຍຂຶ້ນ ເນື່ອງຈາກແຕ່ລະ Tenant ມີລະດັບຄວາມສ່ຽງທີ່ຍອມຮັບໄດ້ແຕກຕ່າງກັນ.
ຖ້ານຳເອົາກາດເລວ (Guardrails) ທີ່ອອກແບບມາສຳລັບຜູ້ໃຊ້ລາຍດຽວ (Single-tenant) ໄປໃຊ້ໃນສະພາບແວດລ້ອມແບບຫຼາຍຜູ້ໃຊ້ (Multi-tenant) ໂດຍກົງ, ມັນຈະເຮັດໃຫ້ນະໂຍບາຍຕ່າງໆປົນເປກັນລະຫວ່າງຜູ້ໃຊ້, ເຊິ່ງມັກຈະສົ່ງຜົນໃຫ້ເກີດການຮົ່ວໄຫຼຂອງຂໍ້ມູນໂດຍບໍ່ໄດ້ຕັ້ງໃຈ ຫຼື ມີການຈຳກັດຫຼາຍເກີນໄປ. ສຳລັບແອັບພລິເຄຊັນ LLM ແບບ SaaS ຫຼື ການນຳໃຊ້ພາຍໃນອົງກອນທີ່ມີຫຼາຍພາກສ່ວນ, ຫົວຂໍ້, ພາສາ ແລະ ຮູບແບບການສະແດງຜົນທີ່ອະນຸຍາດໃຫ້ໃຊ້ງານນັ້ນມັກຈະມີຄວາມແຕກຕ່າງກັນໃນແຕ່ລະຜູ້ໃຊ້. ໃນຫົວຂໍ້ H3 ຕໍ່ໄປນີ້, ພວກເຮົາຈະອະທິບາຍກ່ຽວກັບໂຄງສ້າງສະເພາະຂອງການອອກແບບນະໂຍບາຍແຍກຕາມຜູ້ໃຊ້ ແລະ ຂໍ້ຄວນລະວັງໃນການດຳເນີນງານທີ່ຄວນເພີ່ມເຕີມສຳລັບຂະແໜງການທີ່ມີການຄວບຄຸມຢ່າງເຂັ້ມງວດ ເຊັ່ນ: ຂະແໜງການເງິນ ແລະ ການແພດ.
ໃນສະພາບແວດລ້ອມ Multi-tenant, ການອະນຸຍາດການດຳເນີນງານ, ຄຳສັບທີ່ຫ້າມໃຊ້ ແລະ ຮູບແບບການສະແດງຜົນຈະແຕກຕ່າງກັນໄປໃນແຕ່ລະ Tenant, ດັ່ງນັ້ນການອອກແບບເພື່ອແຍກ ແລະ ຈັດການ Guardrails ໃນລະດັບ Tenant ຈຶ່ງເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້. ນອກຈາກຊັ້ນ Guardrails ທົ່ວໄປແລ້ວ, ໂຄງສ້າງແບບລຳດັບຊັ້ນທີ່ສາມາດຂຽນທັບ (Override) ນະໂຍບາຍສະເພາະຂອງ Tenant ໄດ້ນັ້ນຖືວ່າມີປະສິດທິພາບ.
ນະໂຍບາຍພື້ນຖານໃນການອອກແບບ
ການໃຊ້ໂຄງສ້າງ 3 ຊັ້ນນີ້ ເຮັດໃຫ້ສາມາດດຳເນີນງານໄດ້ຢ່າງຍືດຫຍຸ່ນ ເຊັ່ນ: Tenant ໜຶ່ງອະນຸຍາດໃຫ້ສະແດງຜົນຄຳສັບທາງການແພດໄດ້ ໃນຂະນະທີ່ອີກ Tenant ໜຶ່ງສາມາດບລັອກຄຳສັບດຽວກັນນັ້ນໄດ້.
ຂໍ້ຄວນລະວັງໃນການປະຕິບັດງານ
ຄວາມສ່ຽງທີ່ມັກຖືກມອງຂ້າມ
ມີລາຍງານກ່ຽວກັບກໍລະນີ "Confused Deputy Problem" ເຊິ່ງຜູ້ໃຊ້ຂອງ Tenant A ໃຊ້ Prompt Injection ເພື່ອດຶງເອົາການດຳເນີນງານທີ່ໄດ້ຮັບອະນຸຍາດໃນນະໂຍບາຍຂອງ Tenant B. ເພື່ອເປັນການປ້ອງກັນ, ແນະນຳໃຫ້ອອກແບບໂດຍການເພີ່ມການກວດສອບລາຍເຊັນ (Signature Verification) ຂອງ Tenant ID ກ່ອນການປະເມີນ Guardrails.
ປະຫວັດການປ່ຽນແປງນະໂຍບາຍຄວນຖືກບັນທຶກໄວ້ໃນໂຄງສ້າງພື້ນຖານ ຫຼື Infrastructure ດ້ານ AI Observability ແລະ ເກັບຮັກສາໄວ້ເປັນຫຼັກຖານໃນການກວດສອບ (Audit Trail) ເພື່ອເພີ່ມປະສິດທິພາບໃນການປະຕິບັດຕາມກົດລະບຽບ ແລະ ການສືບສວນຫາສາເຫດເມື່ອເກີດບັນຫາ.
ໃນອຸດສາຫະກຳທີ່ມີການຄວບຄຸມ ເຊັ່ນ: ການເງິນ, ການແພດ ແລະ ກົດໝາຍ, Guardrails ມັກຈະມີຄວາມກ່ຽວຂ້ອງໂດຍກົງກັບຂໍ້ກຳນົດດ້ານການປະຕິບັດຕາມກົດລະບຽບ (Compliance), ເຮັດໃຫ້ມີຄວາມຕ້ອງການໃນການອອກແບບທີ່ເຂັ້ມງວດກວ່າການນຳໃຊ້ທົ່ວໄປ.
ມຸມມອງທີ່ຄວນເອົາໃຈໃສ່ເປັນພິເສດໃນອຸດສາຫະກຳທີ່ມີການຄວບຄຸມ
ຂໍ້ຄວນລະວັງໃນການຈັດຕັ້ງປະຕິບັດ
ໃນຂະແໜງການແພດ, ຂໍ້ມູນທີ່ຜິດພາດຈາກ Hallucination ສາມາດສົ່ງຜົນກະທົບໂດຍກົງຕໍ່ຄວາມປອດໄພຂອງຄົນເຈັບ. ການນຳເອົາ Grounding Check ເຂົ້າໄປໃນຂະບວນການ ຫຼື Pipeline ຂອງຜົນລາຍງານ ແລະ ການລະບຸເອກະສານອ້າງອີງຂອງ RAG (Retrieval-Augmented Generation) ໃຫ້ຊັດເຈນ ຈະສາມາດຊ່ວຍຍັບຍັ້ງການສະຫຼຸບທີ່ບໍ່ມີຫຼັກຖານໄດ້.
ໃນຂະແໜງການເງິນ, ຄວາມສ່ຽງຕໍ່ການຮົ່ວໄຫຼຂອງຂໍ້ມູນລັບ (Sensitive Information Disclosure) ແມ່ນສູງຫຼາຍ. ນອກຈາກການແຍກຂໍ້ມູນລະຫວ່າງ Tenant ແລ້ວ, ຄວນນຳໃຊ້ສະຖາປັດຕະຍະກຳທີ່ອີງໃສ່ຫຼັກການ Privacy by Isolation.
ເນື່ອງຈາກຂໍ້ກຳນົດດ້ານກົດລະບຽບອາດມີການປັບປຸງ, ຈຶ່ງແນະນຳໃຫ້ສ້າງລະບົບການບໍລິຫານຈັດການທີ່ສອດຄ່ອງກັບ ISO/IEC 42001 (ມາດຕະຖານລະບົບການຈັດການ AI) ແລະ ກຳນົດຮອບວຽນການທົບທວນຄືນຢ່າງສະໝ່ຳສະເໝີ.
Q1. ການນຳໃຊ້ Guardrail ຈະເຮັດໃຫ້ Latency ເພີ່ມຂຶ້ນບໍ?
ໃນກໍລະນີທີ່ມີການໃສ່ Model ການຈັດປະເພດ (Classification Model) ທັງໃນສ່ວນຂອງ Input ແລະ Output, ມັກຈະມີ Latency ເພີ່ມຂຶ້ນປະມານຫຼາຍສິບຫາຫຼາຍຮ້ອຍມິນລີວິນາທີ. ທ່ານສາມາດຫຼຸດຜ່ອນຜົນກະທົບດັ່ງກ່າວໃຫ້ໜ້ອຍທີ່ສຸດໄດ້ດ້ວຍການຈັດໂຄງສ້າງແບບຫຼາຍຂັ້ນຕອນ ເຊັ່ນ: ການເລືອກໃຊ້ SLM ທີ່ມີນ້ຳໜັກເບົາສຳລັບວຽກງານ Guard, ຫຼື ການກວດສອບຜ່ານ Rule-based filter ກ່ອນເພື່ອຄັດກອງການລະເມີດທີ່ຊັດເຈນອອກໄປຕັ້ງແຕ່ຕົ້ນ.
Q2. ມາດຕະການປ້ອງກັນ Prompt Injection ສາມາດປ້ອງກັນໄດ້ຢ່າງສົມບູນແບບບໍ?
ໃນປັດຈຸບັນ, ການ "ປ້ອງກັນຢ່າງສົມບູນ" ແມ່ນຍັງເຮັດໄດ້ຍາກ ແລະ ການປ້ອງກັນແບບຫຼາຍຊັ້ນ (Defense-in-depth) ແມ່ນພື້ນຖານທີ່ສຳຄັນ. ການປະສົມປະສານລະຫວ່າງການເຮັດ Input Sanitization, ການເສີມຄວາມແຂງແກ່ນໃຫ້ກັບ System Prompt, ແລະ ການກວດສອບ Grounding ຂອງ Output ສາມາດຊ່ວຍຫຼຸດອັດຕາການໂຈມຕີສຳເລັດ (ASR) ໄດ້ຢ່າງຫຼວງຫຼາຍ. ການກວດສອບຢ່າງຕໍ່ເນື່ອງດ້ວຍການເຮັດ Fuzzing ຫຼື Red Teaming ເປັນປະຈຳແມ່ນມີຄວາມສຳຄັນຫຼາຍ.
Q3. ມີ Library ປະເພດ Open-source Guardrail ໃຫ້ໃຊ້ບໍ?
ມີເຄື່ອງມື Open-source ທີ່ສາມາດນຳໃຊ້ເພື່ອປະເມີນຄວາມສ່ຽງຂອງ LLM ໄດ້ ເຊັ່ນ: Garak ຫຼື PyRIT. ຢ່າງໃດກໍຕາມ, ເນື່ອງຈາກ License ແລະ Model ທີ່ຮອງຮັບອາດມີການປ່ຽນແປງໄດ້, ກະລຸນາກວດສອບຂໍ້ມູນຫຼ້າສຸດຈາກເອກະສານທາງການ.
Q4. Guardrail ສາມາດນຳໃຊ້ກັບ Multimodal AI ໄດ້ບໍ?
ໃນກໍລະນີທີ່ຈັດການກັບຮູບພາບ ຫຼື ສຽງ ນອກເໜືອໄປຈາກຂໍ້ຄວາມ, ຈຳເປັນຕ້ອງມີການກຽມ Model ການຈັດປະເພດ (Classification Model) ໃຫ້ສອດຄ່ອງກັບແຕ່ລະ Modality. ການຮັບມືກັບ Multimodal Jailbreak ຍັງມີຫຼາຍສ່ວນທີ່ຢູ່ໃນຂັ້ນຕອນການຄົ້ນຄວ້າ, ສະນັ້ນໃນປັດຈຸບັນ ການສ້າງລະບົບເກັບ Log ຂອງ Input ແລະ Output ໃນແຕ່ລະ Modality ແຍກຕ່າງຫາກເພື່ອตรวจจับ (Detect) ຄວາມຜິດປົກກະຕິ ຈຶ່ງເປັນບາດກ້າວທຳອິດທີ່ເໝາະສົມກັບຄວາມເປັນຈິງ.
Q5. Guardrail ມີປະໂຫຍດຕໍ່ການປະຕິບັດຕາມກົດລະບຽບ (EU AI Act, ISO/IEC 42001, ແລະ ອື່ນໆ) ບໍ?
Log ແລະ ບັນທຶກການປະເມີນຜົນຂອງ Guardrail ສາມາດນຳໃຊ້ເປັນຫຼັກຖານໃນການກຳກັບດູແລ AI (AI Governance) ໄດ້. ຢ່າງໃດກໍຕາມ, ເພື່ອໃຫ້ບັນລຸຂໍ້ກຳນົດດ້ານກົດລະບຽບ, ຈຳເປັນຕ້ອງມີການດຳເນີນການເພີ່ມເຕີມ ເຊັ່ນ: ການຈັດປະເພດຄວາມສ່ຽງ ແລະ ການຈັດເຮັດເອກະສານ. ແນະນຳໃຫ້ປຶກສາຫາລືກັບຜູ້ຊ່ຽວຊານ.
ການຈັດຕັ້ງປະຕິບັດ AI Guardrail ບໍ່ແມ່ນສິ່ງທີ່ເຮັດຄັ້ງດຽວແລ້ວຈົບ. ເນື່ອງຈາກໄພຂົ່ມຂູ່ມີການພັດທະນາ ແລະ ຮູບແບບການນຳໃຊ້ຂອງຜູ້ໃຊ້ກໍມີການປ່ຽນແປງຢູ່ສະເໝີ, ວົງຈອນການປັບປຸງຢ່າງຕໍ່ເນື່ອງຈຶ່ງເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້.
ສະຫຼຸບປະເດັນສຳຄັນທີ່ໄດ້ອະທິບາຍໃນບົດຄວາມນີ້ ມີດັ່ງນີ້:
ສິ່ງທີ່ຄວນລະວັງເປັນພິເສດຄື ຄວາມຄິດທີ່ວ່າ "ຂໍພຽງແຕ່ປ້ອງກັນໄດ້ກໍພໍແລ້ວ" ເຊິ່ງມີຄວາມສ່ຽງທີ່ຈະນຳໄປສູ່ການເຮັດໃຫ້ UX ຫຼຸດລົງຍ້ອນການປ້ອງກັນທີ່ເກີນຄວາມຈຳເປັນ. ການປ້ອງກັນ Prompt Injection ແລະ ການຍັບຍັ້ງ Hallucination ເປັນສິ່ງສຳຄັນ, ແຕ່ຖ້າຫາກປິດກັ້ນຄຳຮ້ອງຂໍທີ່ຖືກຕ້ອງໂດຍຜິດພາດ ກໍຈະເຮັດໃຫ້ສູນເສຍຄວາມເຊື່ອໝັ້ນຈາກຜູ້ໃຊ້. ການຮັບຮູ້ເຖິງ ການແລກປ່ຽນ ຫຼື Trade-off ລະຫວ່າງຄວາມປອດໄພ ແລະ ຄວາມສະດວກສະບາຍ, ພ້ອມທັງການອັບເດດຊຸດການປະເມີນຜົນຢ່າງສະໝ່ຳສະເໝີ ແລະ ຕິດຕາມທັງອັດຕາການປິດກັ້ນທີ່ຜິດພາດ ແລະ ອັດຕາການລອດພົ້ນຂອງການໂຈມຕີ ຖືເປັນວິທີການທີ່ແທ້ຈິງ.
ໂດຍອີງໃສ່ທິດທາງຂອງກົດລະບຽບຕ່າງໆ ເຊັ່ນ: NIST Guidelines ແລະ EU AI Act, ພວກເຮົາແນະນຳໃຫ້ດຳເນີນການອອກແບບການດຳເນີນງານຄວບຄູ່ໄປກັບການຄຸ້ມຄອງ (Governance) ທັງອົງກອນ ຈາກມຸມມອງຂອງ AI TRiSM. Guardrail ບໍ່ພຽງແຕ່ເປັນຮົ້ວຄວາມປອດໄພທາງດ້ານເທັກນິກເທົ່ານັ້ນ, ແຕ່ຍັງເປັນພື້ນຖານໃນການສ້າງຄວາມເຊື່ອໝັ້ນໃຫ້ກັບແອັບພລິເຄຊັນ LLM ອີກດ້ວຍ.

Yusuke Ishihara
ເລີ່ມຂຽນໂປຣແກຣມຕັ້ງແຕ່ອາຍຸ 13 ປີ ດ້ວຍ MSX. ຫຼັງຈົບການສຶກສາຈາກມະຫາວິທະຍາໄລ Musashi, ໄດ້ເຮັດວຽກໃນການພັດທະນາລະບົບຂະໜາດໃຫຍ່ ລວມທັງລະບົບຫຼັກຂອງສາຍການບິນ ແລະ ໂຄງສ້າງ Windows Server Hosting/VPS ທຳອິດຂອງຍີ່ປຸ່ນ. ຮ່ວມກໍ່ຕັ້ງ Site Engine Inc. ໃນປີ 2008. ກໍ່ຕັ້ງ Unimon Inc. ໃນປີ 2010 ແລະ Enison Inc. ໃນປີ 2025, ນຳພາການພັດທະນາລະບົບທຸລະກິດ, NLP ແລະ ແພລດຟອມ. ປັດຈຸບັນສຸມໃສ່ການພັດທະນາຜະลິດຕະພັນ ແລະ ການສົ່ງເສີມ AI/DX ໂດຍນຳໃຊ້ generative AI ແລະ LLM.