
Supply chain ຂອງການພັດທະນາ AI ແມ່ນລະບົບຕ່ອງໂສ້ການສະໜອງທັງໝົດ ເຊິ່ງລວມເຖິງໂມເດວເປີດເຜີຍ (Open Models), ແພັກເກດທີ່ຕ້ອງເພິ່ງພາອາໄສ, ແພລດຟອມ SaaS DevOps, ແລະ AI Agent ທີ່ຖືກລວມເຂົ້າໃນການພັດທະນາ ເຊິ່ງຜະລິດຕະພັນ AI ຕ້ອງອີງໃສ່. ບົດຄວາມນີ້ມີຈຸດປະສົງເພື່ອ CTO, ຫົວໜ້າຝ່າຍຄວາມປອດໄພ ແລະ SRE ຂອງບໍລິສັດທີ່ພັດທະນາ ແລະ ດຳເນີນງານຜະລິດຕະພັນ AI, ໂດຍຈະສະຫຼຸບເຫດການສຳຄັນທີ່ເກີດຂຶ້ນໃນປີ 2024–2026, ອະທິບາຍເຖິງພື້ນທີ່ການໂຈມຕີສະເພາະຂອງ AI ທີ່ SBOM ຢ່າງດຽວບໍ່ສາມາດປ້ອງກັນໄດ້, ລວມເຖິງຍຸດທະສາດການປ້ອງກັນທີ່ປະສົມປະສານລະຫວ່າງ AI BOM / ການກວດສອບ Model Card / ການກຳນົດສິດ OAuth ຂັ້ນຕໍ່າສຸດ / ການບໍລິຫານຈັດການ Sensitive Secret / ແລະ ການແຍກ CI/CD ອອກຈາກກັນ. ເມື່ອອ່ານຈົບ, ທ່ານຈະສາມາດສ້າງລາຍການກວດສອບ (Checklist) ສຳລັບມາດຕະການປ້ອງກັນທີ່ຍັງຂາດຫາຍໄປໃນຂະບວນການ ຫຼື Pipeline ການພັດທະນາ AI ຂອງບໍລິສັດທ່ານໄດ້.
ຕ່ອງໂສ້ການສະໜອງຜະລິດຕະພັນ AI ມີຄວາມກວ້າງກວ່າຕ່ອງໂສ້ການສະໜອງຊອບແວແບບດັ້ງເດີມ. ມີການກວດພົບການບຸກລຸກຢ່າງຕໍ່ເນື່ອງໃນ 4 ເສັ້ນທາງ ຄື: ຕົວແບບ (Model), ແພັກເກດທີ່ເພິ່ງພາອາໄສ (Dependency packages), SaaS DevOps ແລະ AI Agent. ໃນບົດນີ້, ພວກເຮົາຈະສະຫຼຸບເຫດການສຳຄັນທີ່ເປີດຕົວ ຫຼື Launch ໃນຮອບ 10 ປີ (2024-2026) ແລະ ຄວາມກວ້າງຂອງພື້ນທີ່ຄວາມສ່ຽງທີ່ເປັນເອກະລັກສະເພາະໃນການພັດທະນາ AI.
ເຫດການທີ່ສັ່ນສະເທືອນວົງການພັດທະນາ AI ໃນຊ່ວງປີ 2024-2026 ໄດ້ເກີດຂຶ້ນຜ່ານ 4 ເສັ້ນທາງທີ່ມີລັກສະນະແຕກຕ່າງກັນ:
ເຫດການເຫຼົ່ານີ້ເບິ່ງຄືວ່າເປັນເຫດການແຍກຕ່າງຫາກ ແຕ່ທັງໝົດລ້ວນແຕ່ມີໂຄງສ້າງດຽວກັນຄື: "ເມື່ອພາກສ່ວນໃດໜຶ່ງທີ່ AI / SaaS ຕ້ອງເພິ່ງພາອາໄສຖືກລະເມີດ → ຈະສົ່ງຂໍ້ມູນຕໍ່ໃຫ້ ກຸນແຈ ຫຼື ລະຫັດຕ່າງໆຮົ່ວໄຫຼອອກໄປເປັນທອດໆ".
ມີ 4 ເຫດຜົນທີ່ເຮັດໃຫ້ພື້ນທີ່ຄວາມສ່ຽງໃນການພັດທະນາ AI ກວ້າງກວ່າແຕ່ກ່ອນ:
ອັນທີໜຶ່ງ, ໄຟລ໌ນ້ຳໜັກ (Weight files) ສາມາດກາຍເປັນ Payload ທີ່ສາມາດປະຕິບັດງານໄດ້. ໂມເດວໃນຮູບແບບ Pickle ສາມາດປະຕິບັດໂຄ້ດ Python ໄດ້ຢ່າງອິດສະຫຼະ ແລະ ຖ້າຫາກອ່ານໄຟລ໌ໂດຍບໍ່ມີການສະແກນ ກໍຈະເກີດການລະເມີດຄວາມປອດໄພຂຶ້ນ. ອັນທີສອງ, ມີທຳນຽມການດຶງເອົານ້ຳໜັກພື້ນຖານ (Base weights) ຫຼື ຊຸດຂໍ້ມູນມາຈາກ Hub ທີ່ເປີດຕົວ ຫຼື Launch ຕໍ່ສາທາລະນະ, ເຊິ່ງການຖືກລະເມີດບັນຊີໃນຝັ່ງ Hub ຈະສົ່ງຜົນໃຫ້ເກີດການແຊກແຊງທັນທີ. ອັນທີສາມ, ການພັດທະນາ AI ປະກອບຂຶ້ນຈາກຕ່ອງໂສ້ຂອງ SaaS — ບໍ່ວ່າຈະເປັນ Model Registry, Vector Database, ແພລດຟອມການ Deploy, ລະບົບ Log ແລະອື່ນໆ, ເຊິ່ງ API Key / OAuth Scope ແຕ່ລະອັນຈະກາຍເປັນສ່ວນໜຶ່ງຂອງຕ່ອງໂສ້ການສະໜອງ (Supply chain). ອັນທີສີ່, ການທີ່ຫຼາຍບໍລິສັດນຳເອົາ AI Coding Agent ເຂົ້າມາລວມໃນການພັດທະນາ ເຮັດໃຫ້ການເພີ່ມ Dependency ທີ່ Agent ເປັນຜູ້ຂຽນນັ້ນ ສາມາດກາຍເປັນຊ່ອງທາງການໂຈມຕີໄດ້. ສິ່ງເຫຼົ່ານີ້ແມ່ນຂົງເຂດທີ່ບໍ່ສາມາດເບິ່ງເຫັນໄດ້ດ້ວຍພຽງແຕ່ SBOM ແລະ CVE Scan ແບບດັ້ງເດີມ, ຈຶ່ງຈຳເປັນຕ້ອງມີມາດຕະການປ້ອງກັນສະເພາະສຳລັບ AI.
ການໂຫຼດໂມເດວທີ່ໄດ້ມາຈາກ Public Hub ເຊັ່ນ Hugging Face ໂດຍຍັງຢູ່ໃນຮູບແບບ Pickle ອາດນຳໄປສູ່ການປະຕິບັດຄຳສັ່ງທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດໂດຍກົງ. ການຍ້າຍໄປໃຊ້ safetensors ແລະການກວດສອບລາຍເຊັນຂອງ Model Card ແມ່ນແນວປ້ອງກັນດ່ານທຳອິດ. ໃນບົດນີ້, ພວກເຮົາຈະສະຫຼຸບຕົວຢ່າງຈິງຂອງ Backdoor ໃນໂມເດວສາທາລະນະ ແລະຄວາມສ່ຽງທີ່ເກີດຈາກການໂຫຼດໂດຍບໍ່ມີການກວດສອບ.
ໃນ Registry ຂອງໂມເດວທີ່ເປີດຕົວ ຫຼື Launch ລວມເຖິງ Hugging Face, ໄດ້ມີການລາຍງານຢ່າງຕໍ່ເນື່ອງກ່ຽວກັບກໍລະນີທີ່ມີການຝັງ Backdoor ໄວ້ໃນໂມເດວຮູບແບບ Pickle (.bin / .pkl / .pt). ReversingLabs ໄດ້ເປີດຕົວ ຫຼື Launch PoC ທີ່ສາມາດຫຼົບຫຼີກ Pickle scanner ແລະສັ່ງງານການເຊື່ອມຕໍ່ພາຍນອກ ຫຼື Reverse shell ໃນຂະນະທີ່ໂຫຼດໂມເດວ, ພ້ອມທັງໄດ້ກວດພົບຕົວຢ່າງທີ່ເປັນອັນຕະລາຍຫຼາຍກໍລະນີ (ທີ່ມາ: ບົດວິເຄາະ "nullifAI" ຂອງ ReversingLabs). ນອກຈາກນີ້, JFrog Security Research ຍັງໄດ້ກວດພົບໂມເດວທີ່ມີ Backdoor ໂດຍອີງໃສ່ Pickle ເປັນຈຳນວນຫຼາຍ ແລະ ໄດ້ແຈ້ງໃຫ້ທາງ Hugging Face ຮັບຊາບແລ້ວ (ທີ່ມາ: JFrog Security Research).
ການໂຈມຕີເຫຼົ່ານີ້ມີການນຳໃຊ້ປັດໄຈດ້ານວິສະວະກຳສັງຄົມ (Social Engineering) ມາປະສົມປະສານ ເຊັ່ນ: "ການເປີດຕົວ ຫຼື Launch ໂດຍໃຊ້ຊື່ Repository ທີ່ຄ້າຍຄືກັບຊື່ໂມເດວທີ່ເປັນທາງການ" ຫຼື "ການແຈກຢາຍໂດຍອ້າງວ່າເປັນເວີຊັນທີ່ຜ່ານການ Fine-tuned ຂອງໂມເດວທີ່ເປັນທາງການ". ຕາບໃດທີ່ອົງກອນພັດທະນາ AI ຍັງປ່ອຍໃຫ້ວິສະວະກອນແຕ່ລະຄົນຕັດສິນໃຈເອີ້ນໃຊ້ from_pretrained() ດ້ວຍຕົນເອງ, ຄວາມສ່ຽງຈາກການປະມວນຜົນ Pickle ກໍຈະຍັງຄົງມີຢູ່ຕະຫຼອດເວລາ. ບັນຫາສຳຄັນກໍຄື Backdoor ບໍ່ແມ່ນ "ກໍລະນີພິເສດ" ແຕ່ເປັນໄພຂົ່ມຂູ່ທີ່ເກີດຂຶ້ນຢ່າງຕໍ່ເນື່ອງ ເຊິ່ງມີຕົ້ນຕໍມາຈາກໂຄງສ້າງພື້ນຖານ ຫຼື Infrastructure ຂອງ Public Hub ນັ້ນເອງ.
ການທີ່ Pickle ສາມາດປະຕິບັດລະຫັດ (Arbitrary Code Execution) ໄດ້ນັ້ນ ແມ່ນເປັນໄປຕາມມາດຕະຖານ ຫຼື Specification ບໍ່ແມ່ນຂໍ້ຜິດພາດ. pickle.load() ຂອງ Python ຖືກອອກແບບມາໃຫ້ອະນຸຍາດການເອີ້ນໃຊ້ຟັງຊັນໃດກໍໄດ້ຜ່ານ __reduce__ ເຮັດໃຫ້ການໂຫຼດໂດຍບໍ່ມີ scanner ສາມາດເກີດການລະເມີດຄວາມປອດໄພໄດ້ທັນທີ (ທີ່ມາ: ເອກະສານທາງການຂອງ Python ຫົວຂໍ້ "Warning" ໃນໂມດູນ pickle).
ມາດຕະການປ້ອງກັນມີ 3 ຂັ້ນຕອນດັ່ງນີ້:
ການລວມການເອີ້ນໃຊ້ from_pretrained() ພາຍໃນອົງກອນໃຫ້ເປັນ wrapper ດຽວ ແລະ ບັງຄັບໃຫ້ wrapper ນັ້ນກວດສອບ Registry, ຮູບແບບ, ແລະ ລາຍເຊັນ ແມ່ນຮູບແບບທີ່ງ່າຍຕໍ່ການບໍລິຫານຈັດການ. ການກຳຈັດສະພາວະທີ່ວິສະວະກອນໂຫຼດ Pickle ແຍກຕ່າງຫາກນັ້ນເອງ ຖືເປັນການປ້ອງກັນໃນລະດັບອົງກອນ.
npm / PyPI ຂອງພາກສ່ວນທີສາມ (Third-party packages) ແລະ GitHub Actions ແມ່ນຊັ້ນຂອງການເພິ່ງພາອາໄສ (Dependency layers) ທີ່ຖືກນຳໃຊ້ເປັນມາດຕະຖານໃນການພັດທະນາ AI ເຊັ່ນກັນ. ບໍ່ວ່າຈະເປັນ typosquatting, ການຍຶດບັນຊີຜູ້ເບິ່ງແຍງລະບົບ, ຫຼືການປ່ຽນແທນໃນລະຫວ່າງການ build ລ້ວນແຕ່ມີຕົວຢ່າງທີ່ເກີດຂຶ້ນຈິງ. ໃນບົດນີ້, ພວກເຮົາຈະຈັດລະບຽບກ່ຽວກັບກໍລະນີຕົວຢ່າງທີ່ເປັນຮູບປະທຳ ແລະ ໂຄງສ້າງຂອງການໂຈມຕີແບບຫຼາຍຂັ້ນຕອນ.
ການລະເມີດຊັ້ນຂອງແພັກເກັດທີ່ເພິ່ງພາອາໄສ (Dependency) ແມ່ນພົບເຫັນໄດ້ເລື້ອຍໆໃນການພັດທະນາ AI. ເຊິ່ງມີຮູບແບບຫຼັກໆ 3 ຢ່າງດັ່ງນີ້:
ໃນການພັດທະນາ AI, ນອກເໜືອຈາກແພັກເກັດລະດັບສູງເຊັ່ນ transformers / torch / accelerate ແລ້ວ, ຍັງມີການເພິ່ງພາອາໄສໃນລະດັບທີສອງ ແລະ ທີສາມທີ່ເລິກເຊິ່ງ ເຊັ່ນ: Vector DB client, Agent framework, ແລະ Library ສຳລັບການປະເມີນຜົນ. ທີມງານທີ່ຄຸ້ມຄອງພຽງແຕ່ແພັກເກັດຜິວເຜີນ ຈຶ່ງມີຄວາມສ່ຽງທາງໂຄງສ້າງທີ່ເຮັດໃຫ້ຍາກຕໍ່ການກວດພົບການລະເມີດໃນລະດັບທີ່ເລິກເຊິ່ງ.
xz utils back door (CVE-2024-3094) ແມ່ນຕົວຢ່າງທີ່ສະແດງໃຫ້ເຫັນວ່າການລະເມີດຊັ້ນຂອງການເພິ່ງພາອາໄສ (dependency) ບໍ່ໄດ້ຈົບລົງພຽງແຕ່ໃນແພັກເກດດຽວ. ຜູ້ໂຈມຕີທີ່ໃຊ້ຊື່ວ່າ "Jia Tan" ໄດ້ໃຊ້ເວລາຫຼາຍກວ່າ 2 ປີ ເພື່ອໃຫ້ໄດ້ສິດທິໃນການເປັນ maintainer ຂອງໂຄງການ xz ແລະໄດ້ຝັງ back door ທີ່ຖືກເຮັດໃຫ້ອ່ານຍາກ (obfuscated) ລົງໃນ liblzma ຢ່າງເປັນຂັ້ນຕອນ. payload ສຸດທ້າຍແມ່ນການຂຽນທັບ logic ການຢືນຢັນຕົວຕົນ ຂອງ sshd ຜ່ານ liblzma ເພື່ອສ້າງສະພາວະທີ່ອະນຸຍາດໃຫ້ຜູ້ໂຈມຕີສະເພາະກຸ່ມສາມາດຫຼີກລ່ຽງການຢືນຢັນຕົວຕົນຜ່ານ SSH ໄດ້ (ທີ່ມາ: NVD CVE-2024-3094, ລາຍງານຈາກ Andres Freund ໃນລາຍຊື່ທາງອີເມວ oss-security).
ເມື່ອເບິ່ງຈາກມຸມມອງການພັດທະນາ AI, ມີບົດຮຽນ 2 ຢ່າງຄື:
ຢ່າງທີໜຶ່ງ, ການຍຶດຄອງທາງສັງຄົມຂອງ maintainer ບໍ່ສາມາດປ້ອງກັນໄດ້ດ້ວຍການກວດສອບທາງເຕັກນິກ. ນອກເໜືອໄປຈາກການເຊັນຊື່ໃນ commit ແລະການສະແກນ CI ແລ້ວ, ຍັງຈຳເປັນຕ້ອງມີການບໍລິຈາກເພື່ອສະໜັບສະໜູນຜູ້ດູແລໃນ OSS ທີ່ສຳຄັນ, ການຕິດຕາມລະດັບ SLSA, ແລະການນຳໃຊ້ Reproducible Build. ຢ່າງທີສອງ, ໄລບຣາຣີທີ່ບໍ່ໄດ້ເພິ່ງພາອາໄສໂດຍກົງ (ເຊັ່ນ: ໄລບຣາຣີການບີບອັດອ້ອມຂ້າງ libc) ອາດສົ່ງຜົນກະທົບຕໍ່ເສັ້ນທາງ SSH ຂອງເຊີບເວີ AI inference. ຂອບເຂດຂອງ AI BOM ບໍ່ຄວນມີພຽງແຕ່ ML stack ເທົ່ານັ້ນ, ແຕ່ຄວນລວມໄປເຖິງຊັ້ນ OS ຂອງ ໂຄງສ້າງພື້ນຖານ ຫຼື Infrastructure ທີ່ໃຊ້ໃນການບໍລິການຕົວແບບ (model serving) ອີກດ້ວຍ. ຖ້າຫາກກຳນົດຂອບເຂດໂດຍຕັ້ງສົມມຸດຕິຖານວ່າເປັນ "OSS ທີ່ບໍ່ກ່ຽວຂ້ອງກັບການພັດທະນາ AI", ກໍອາດຈະເຮັດໃຫ້ພາດການໂຈມຕີໃນຮູບແບບດຽວກັນກັບ xz utils ໄດ້.
ການລະເມີດຄວາມປອດໄພຂອງແພລດຟອມ SaaS DevOps ບໍ່ຄືກັບການຮົ່ວໄຫຼຂອງຂໍ້ມູນນັກພັດທະນາລາຍບຸກຄົນ, ເນື່ອງຈາກສິດທິໃນການເຂົ້າເຖິງລະຫັດລັບ (Secret Code) ແລະ ການ Deploy ຂອງລູກຄ້າຫຼາຍລາຍຈະໄດ້ຮັບຜົນກະທົບພ້ອມກັນ. ເຫດການທີ່ເກີດຂຶ້ນກັບ Vercel ໃນເດືອນເມສາ 2026 ໄດ້ສະແດງໃຫ້ເຫັນເຖິງຄວາມແຕກຕ່າງໃນການດຳເນີນງານລະຫວ່າງຂໍ້ມູນທີ່ຖືກ encrypted ແລະ ຂໍ້ມູນທີ່ເປັນ Sensitive. ໃນບົດນີ້, ພວກເຮົາຈະມາສະຫຼຸບໂຄງສ້າງຂອງເຫດການດັ່ງກ່າວ ແລະ ບົດຮຽນທີ່ໄດ້ຮັບຈາກການດຳເນີນງານ.
ເຫດການທີ່ Vercel ໄດ້ ເປີດຕົວ ຫຼື Launch ໃນເດືອນເມສາ 2026 ແມ່ນກໍລະນີທີ່ບັນຊີຂອງພະນັກງານຖືກບຸກລຸກຜ່ານເຄື່ອງມື AI ຂອງພາກສ່ວນທີສາມ, ເຮັດໃຫ້ຕົວແປສະພາບແວດລ້ອມ (environment variables) ທີ່ຖືກເຂົ້າລະຫັດ (encrypted) ຂອງລູກຄ້າບາງສ່ວນຖືກເປີດເຜີຍອອກສູ່ພາຍນອກ. Vercel ໄດ້ ເປີດຕົວ ຫຼື Launch ຂໍ້ມູນວ່າ ຕົວແປສະພາບແວດລ້ອມທີ່ມີຄວາມອ່ອນໄຫວ (Sensitive) ຍັງຢູ່ພາຍໃຕ້ການປົກປ້ອງດ້ວຍການເຂົ້າລະຫັດ ແລະ ບໍ່ພົບຫຼັກຖານການເຂົ້າເຖິງ, ການບໍລິການຍັງຄົງດຳເນີນງານຕໍ່ໄປໄດ້ ແລະ ລະບົບຕ່ອງໂສ້ການສະໜອງ (supply chain) ຂອງ npm package ຍັງມີຄວາມປອດໄພ (ທີ່ມາ: Vercel KB Bulletin "April 2026 security incident").
ສິ່ງທີ່ ຈຸດສຳຄັນ ຫຼື ແກນຫຼັກ ໃນທີ່ນີ້ຄື Vercel ມີໂໝດການຈັດເກັບຕົວແປສະພາບແວດລ້ອມຫຼາຍຮູບແບບ:
ບົດຮຽນທີ່ໄດ້ຮັບນັ້ນຈະແຈ້ງ: API key, token, ຂໍ້ມູນຢືນຢັນຕົວຕົນຂອງຖານຂໍ້ມູນ ແລະ ກຸນແຈການລົງລາຍເຊັນ (signing key) ຕ້ອງເປັນ Sensitive ເທົ່ານັ້ນ. ຫ້າມນຳໃຊ້ໂໝດ encrypted ແບບເດີມພຽງເພາະ "ມັນປ່ຽນແປງໜ້ອຍກວ່າ" ໂດຍເດັດຂາດ. ການສ້າງກຸນແຈໃໝ່ຄວນຕັ້ງຄ່າເປັນ Sensitive ຕັ້ງແຕ່ຕົ້ນ ແລະ ຄວນປັບປ່ຽນໃຫ້ເປັນ Sensitive ທຸກຄັ້ງທີ່ມີການໝູນວຽນກຸນແຈ (rotation) ເພື່ອໃຫ້ເປັນມາດຕະຖານ. ຫຼັງຈາກເກີດເຫດການນີ້, Vercel ເອງກໍໄດ້ປ່ຽນຄ່າເລີ່ມຕົ້ນຂອງຕົວແປສະພາບແວດລ້ອມໃຫ້ເປັນ Sensitive ໂດຍອັດຕະໂນມັດແລ້ວ.
ຄວາມໜ້າຢ້ານຂອງ SaaS chain ແມ່ນການທີ່ການລະເມີດຄວາມປອດໄພຂອງແພລດຟອມໜຶ່ງ ສາມາດສົ່ງຂໍ້ມູນຕໍ່ໃຫ້ເກີນກວ່າຂອບເຂດຂອງ OAuth scope ທີ່ເຊື່ອມຕໍ່ໄວ້. ຕົວຢ່າງເຊັ່ນ: OAuth ຈາກ Vercel ໄປຫາ GitHub, ການແຈ້ງເຕືອນຈາກ Vercel ໄປຫາ Slack, ຫຼື Telemetry ຈາກ Vercel ໄປຫາ PostHog / Sentry ເປັນຕົ້ນ, ເຊິ່ງ SaaS ມັກຈະມີການຖື API key ຫຼື OAuth token ຂອງກັນແລະກັນໄວ້. ຖ້າຫາກ API key ຂອງ SaaS ອື່ນຖືກບັນຈຸຢູ່ໃນ encrypted env ທີ່ຖືກເປີດຕົວ ຫຼື Launch ອອກມາ, ຄວາມເສຍຫາຍກໍຈະແຜ່ຂະຫຍາຍໄປເຖິງ SaaS ນັ້ນໆດ້ວຍ.
ໃນດ້ານການດຳເນີນງານ ໃຫ້ປະຕິບັດຕາມ 4 ຫຼັກການດັ່ງນີ້:
ແພລດຟອມຂະໜາດໃຫຍ່ເຊັ່ນ Vercel ຍິ່ງຕ້ອງການການແຍກກຸນແຈ ແລະ ການອອກແບບສິດທິຂັ້ນຕໍ່າສຸດຈາກຝ່າຍຜູ້ໃຊ້. ການສ້າງໂຄງສ້າງທີ່ສາມາດຫຼຸດຜ່ອນຂອບເຂດຄວາມເສຍຫາຍໄດ້ຢ່າງຕັ້ງໜ້າເມື່ອເກີດການລະເມີດຈາກຜູ້ໃຫ້ບໍລິການ (Vendor) ຄືການປ້ອງກັນທີ່ເປັນຈຸດສຳຄັນ ຫຼື ແກນຫຼັກ.
AI Coding Agent ຊ່ວຍເພີ່ມປະສິດທິພາບການເຮັດວຽກ ແຕ່ໃນຂະນະດຽວກັນກໍສາມາດກາຍເປັນຊ່ອງທາງການໂຈມຕີຮູບແບບໃໝ່ໄດ້. ຄວາມສ່ຽງທີ່ Agent ຈະດຳເນີນການປ່ຽນແປງ Dependency ຫຼື ແຊກແຊງ Code ຜ່ານ Prompt Injection ໄດ້ກາຍເປັນຄວາມຈິງແລ້ວ. ໃນບົດນີ້, ພວກເຮົາຈະມາຈັດລະບຽບກ່ຽວກັບລະບົບຕ່ອງໂສ້ການໂຈມຕີຜ່ານ Agent ແລະ ການອອກແບບຂອບເຂດສິດອຳນາດໃນ Workflow ຂອງນັກພັດທະນາ.
AI Coding Agent (ຕົວແທນຜະລິດຕະພັນທີ່ໃຊ້ Claude / GPT / Gemini ຢູ່ເບື້ອງຫຼັງ) ໄດ້ກາຍເປັນການອອກແບບທົ່ວໄປທີ່ບໍ່ພຽງແຕ່ສ້າງໂຄ້ດເທົ່ານັ້ນ, ແຕ່ຍັງອັດຕະໂນມັດເຖິງການຮຽກໃຊ້ເຄື່ອງມືເພື່ອແກ້ໄຂ package.json, ສ້າງໄຟລ໌, ດຳເນີນການ pnpm add, ໄປຈົນເຖິງການເຮັດ git commit. ສິ່ງນີ້ເຮັດໃຫ້ເສັ້ນທາງການເກີດ ການສັ່ງງານຜ່ານຄຳສັ່ງທາງອ້ອມ (Indirect Prompt Injection) ເພີ່ມຂຶ້ນ, ເຊິ່ງ "ຂໍ້ຄວາມພາຍນອກ" ທີ່ Agent ອ່ານຈະຖືກນຳໄປປະຕິບັດຕາມຄຳສັ່ງໂດຍກົງ (ທີ່ມາ: OWASP Top 10 for LLM Applications LLM01: Prompt Injection).
ມີ 3 ສະຖານະການທີ່ເປັນຮູບປະທຳ:
node_modules ທີ່ມີຢູ່.ນີ້ແມ່ນການໂຈມຕີທີ່ເກີດຂຶ້ນຈາກການປະສົມປະສານກັນລະຫວ່າງ LLM01 (Prompt Injection) ແລະ LLM02 (Insecure Output Handling) ຂອງ OWASP LLM Top 10 ເຊິ່ງບໍ່ສາມາດປ້ອງກັນໄດ້ດ້ວຍມາດຕະການຄວາມປອດໄພຂອງຕົວແບບ (Model) ພຽງຢ່າງດຽວ. ຍິ່ງນຳເອົາ Agent ເຂົ້າໄປໃນຂະບວນການພັດທະນາຫຼາຍເທົ່າໃດ, ໂຄງສ້າງຂອງເສັ້ນທາງຈາກການປ້ອນຂໍ້ມູນພາຍນອກໄປສູ່ການປ່ຽນແປງການເພິ່ງພາອາໄສກໍຍິ່ງຂະຫຍາຍກວ້າງຂຶ້ນເທົ່ານັ້ນ.
ເພື່ອດຳເນີນການ AI Coding Agent ຢ່າງປອດໄພ, ຈຳເປັນຕ້ອງອອກແບບສິດທິຂອງ Agent ໂດຍແບ່ງອອກເປັນ "ການສ້າງໂຄ້ດພຽງຢ່າງດຽວ" ແລະ "ການປະຕິບັດງານທີ່ມີຜົນກະທົບຂ້າງຄຽງ (ການເພີ່ມແພັກເກດ, ການຄອມມິດ, ການເດັບພອຍ)". ຮູບແບບການຈັດຕັ້ງປະຕິບັດມີ 4 ຢ່າງທີ່ຄວນນຳມາປະສົມປະສານກັນດັ່ງນີ້:
pnpm add / npm install / pip install ໃຫ້ເປັນແບບ 2 ຂັ້ນຕອນ ຄື Agent ເປັນຜູ້ສະເໜີ ແລະ ນັກພັດທະນາເປັນຜູ້ອະນຸມັດ. ໃນ CI ກໍຕ້ອງບັງຄັບໃຊ້ --frozen-lockfile ແລະ ບັງຄັບໃຫ້ມີການກວດສອບ (Review) ທຸກຄັ້ງທີ່ມີການເພີ່ມ Dependency ໃໝ່.ສິ່ງເຫຼົ່ານີ້ອາດຈະຕ້ອງມີ ການແລກປ່ຽນ ຫຼື Trade-off ກັບປະສິດທິພາບການເຮັດວຽກບາງສ່ວນ ແຕ່ເປັນການອອກແບບທີ່ມີຄວາມຈຳເປັນເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ ເມື່ອ AI Coding Agent ຖືກນຳມາໃຊ້ໃນອົງກອນຂະໜາດໃຫຍ່. ການເປີດໃຊ້ງານ Agent ຢ່າງເຕັມຮູບແບບໂດຍບໍ່ມີການຄວບຄຸມໃນລະບົບ Supply Chain ຈະເຮັດໃຫ້ເກີດຄວາມສ່ຽງໃນໂຄງສ້າງດຽວກັນກັບການອ້າງອີງ Third-party Action ເຊັ່ນ tj-actions ໂດຍບໍ່ມີການລະບຸ SHA pin.
ການປ້ອງກັນລະບົບຕ່ອງໂສ້ການສະໜອງ (Supply Chain) ຂອງການພັດທະນາ AI ບໍ່ສາມາດເຮັດໃຫ້ສຳເລັດໄດ້ດ້ວຍເຄື່ອງມືພຽງຢ່າງດຽວ. ການປ້ອງກັນແບບຫຼາຍຊັ້ນໂດຍການປະສົມປະສານລະຫວ່າງ AI BOM, ການກວດສອບ Model Card, OAuth ສິດທິຂັ້ນຕໍ່າສຸດ, ການຈັດການ Sensitive Secret, ການແຍກ CI/CD ແລະ ບັນທຶກການກວດສອບ (Audit Trail) ແມ່ນວິທີທີ່ເປັນຈິງທີ່ສຸດ. ໃນບົດນີ້, ພວກເຮົາຈະຈັດກຸ່ມຮູບແບບການນຳໄປໃຊ້ງານອອກເປັນ 2 ກຸ່ມ.
AI BOM (AI Bill of Materials) ແມ່ນການຂະຫຍາຍ SBOM ແບບດັ້ງເດີມໃຫ້ກວມເອົາອົງປະກອບຂອງ AI (ນ້ຳໜັກຂອງຕົວແບບ / ຊຸດຂໍ້ມູນ / ຕົວປະມວນຜົນການອ້າງອີງ / ຂໍ້ມູນການປະເມີນຜົນ). ມາດຕະຖານ ຫຼື Specification ຂອງ CycloneDX AI/ML BOM, OWASP AI Exchange, ແລະ SPDX 3.0 ML profile ກຳລັງຖືກພັດທະນາໃຫ້ເປັນມາດຕະຖານອຸດສາຫະກຳ (ທີ່ມາ: CycloneDX Specification 1.5 ຂຶ້ນໄປ, OWASP AI Exchange, SPDX 3.0).
ຂັ້ນຕອນການຈັດຕັ້ງປະຕິບັດມີ 4 ຂັ້ນຕອນດັ່ງນີ້:
ການຈັດຕັ້ງປະຕິບັດ AI BOM ຈະຊ່ວຍໃຫ້ສາມາດກວດສອບຍ້ອນຫຼັງຈາກ BOM ໄດ້ວ່າ "ບໍລິສັດໄດ້ຮັບຜົນກະທົບຫຼືບໍ່" ໃນເວລາທີ່ມີການເປີດເຜີຍກ່ຽວກັບການປົນເປື້ອນຂອງຕົວແບບ ຫຼື ການປ່ຽນແປງການເພິ່ງພາອາໄສໃໝ່ໆ. ເຊິ່ງຈະຊ່ວຍຫຼຸດຜ່ອນເວລາໃນການຕອບໂຕ້ເຫດການສຸກເສີນໃນເບື້ອງຕົ້ນໄດ້ຢ່າງຫຼວງຫຼາຍ.
ເພື່ອເປັນການປ້ອງກັນອີກຊັ້ນໜຶ່ງ, ໃຫ້ຄວບຄຸມ SaaS chain ແລະ ຂະບວນການ ຫຼື Pipeline ການດຳເນີນງານດ້ວຍ 4 ຈຸດດັ່ງນີ້:
4 ຈຸດນີ້ຈະເປັນຕົວຕັດໄຟສຸດທ້າຍທີ່ປ້ອງກັນບໍ່ໃຫ້ຄວາມເສຍຫາຍລາມໄປທົ່ວອົງກອນ ເຖິງແມ່ນວ່າ SaaS ຕົວໃດຕົວໜຶ່ງຈະຖືກບຸກລຸກກໍຕາມ. ສິ່ງສຳຄັນແມ່ນການເຮັດໃຫ້ສິ່ງເຫຼົ່ານີ້ກາຍເປັນກົດລະບຽບການດຳເນີນງານຮ່ວມກັນຂອງອົງກອນ ບໍ່ແມ່ນມາດຕະການສະເພາະຂອງ Vendor.
ຕ່ອງໂສ້ການສະໜອງ (Supply chain) ໃນການພັດທະນາ AI ໄດ້ຂະຫຍາຍຕົວຈາກ 2 ຊັ້ນແບບດັ້ງເດີມ ຄື "Code + 依存パッケージ" ມາເປັນ 4 ຊັ້ນ ຄື "ເປີດຕົວ ຫຼື Launch ໂມເດວ + 依存パッケージ + SaaS DevOps + AI ເອເຈນ". ເຫດການ Pickle arbitrary code execution ຂອງ Hugging Face, ການປອມແປງຂອງ tj-actions, ປະຕູຫຼັງ (Backdoor) ຫຼາຍຊັ້ນຂອງ xz utils, ແລະ ເຫດການຂອງ Vercel ໃນເດືອນເມສາ 2026 ລ້ວນແລ້ວແຕ່ເປັນຜົນມາຈາກການທີ່ຈຸດໃດໜຶ່ງໃນຕ່ອງໂສ້ການສະໜອງທີ່ຂະຫຍາຍຕົວນີ້ຖືກບຸກລຸກ.
ການປ້ອງກັນບໍ່ສາມາດສຳເລັດໄດ້ດ້ວຍການແກ້ໄຂພຽງຢ່າງດຽວ. ຖ້າຈັດລະບຽບມາດຕະການຕາມແຕ່ລະເສັ້ນທາງຈະໄດ້ດັ່ງນີ້:
ການຈັດປະເພດຕາມກອບ 4 ເສັ້ນທາງໃນບົດຄວາມນີ້, ການລະບຸຊັ້ນທີ່ຍັງຂາດຫາຍໄປໃນບໍລິສັດຂອງທ່ານ ແລະ ການຕື່ມເຕັມສ່ວນນັ້ນ ແມ່ນທາງລັດໃນການອັບເດດການພັດທະນາ AI ຂອງອົງກອນໃຫ້ເປັນໄປຕາມມາດຕະຖານ ຫຼື Specification ປີ 2026. ບໍລິສັດຂອງພວກເຮົາໄດ້ນຳເອົາຈຸດກວດສອບໃນບົດຄວາມນີ້ໄປພັດທະນາເປັນແມ່ແບບການກວດສອບພາຍໃນສຳລັບອົງກອນພັດທະນາ AI, ພ້ອມທັງນຳໄປປະຕິບັດຄວບຄູ່ກັບປຶ້ມຄູ່ມືການຕອບໂຕ້ທັນທີເມື່ອໄດ້ຮັບແຈ້ງການບຸກລຸກຈາກຜູ້ໃຫ້ບໍລິການ (Vendor).

Yusuke Ishihara
ເລີ່ມຂຽນໂປຣແກຣມຕັ້ງແຕ່ອາຍຸ 13 ປີ ດ້ວຍ MSX. ຫຼັງຈົບການສຶກສາຈາກມະຫາວິທະຍາໄລ Musashi, ໄດ້ເຮັດວຽກໃນການພັດທະນາລະບົບຂະໜາດໃຫຍ່ ລວມທັງລະບົບຫຼັກຂອງສາຍການບິນ ແລະ ໂຄງສ້າງ Windows Server Hosting/VPS ທຳອິດຂອງຍີ່ປຸ່ນ. ຮ່ວມກໍ່ຕັ້ງ Site Engine Inc. ໃນປີ 2008. ກໍ່ຕັ້ງ Unimon Inc. ໃນປີ 2010 ແລະ Enison Inc. ໃນປີ 2025, ນຳພາການພັດທະນາລະບົບທຸລະກິດ, NLP ແລະ ແພລດຟອມ. ປັດຈຸບັນສຸມໃສ່ການພັດທະນາຜະลິດຕະພັນ ແລະ ການສົ່ງເສີມ AI/DX ໂດຍນຳໃຊ້ generative AI ແລະ LLM.