
ห่วงโซ่อุปทาน (Supply Chain) ของการพัฒนา AI คือเครือข่ายการจัดหาทั้งหมดที่ผลิตภัณฑ์ AI ต้องพึ่งพา ตั้งแต่โมเดลสาธารณะ แพ็กเกจที่ต้องใช้งาน แพลตฟอร์ม SaaS DevOps ไปจนถึง AI Agent ที่ถูกรวมเข้าไว้ในกระบวนการพัฒนา บทความนี้จัดทำขึ้นสำหรับ CTO, ผู้รับผิดชอบด้านความปลอดภัย และ SRE ของบริษัทที่พัฒนาและดำเนินงานด้านผลิตภัณฑ์ AI โดยจะสรุปเหตุการณ์สำคัญที่เกิดขึ้นในช่วงปี 2024–2026 พร้อมอธิบายถึงพื้นผิวการโจมตี (Attack Surface) เฉพาะของ AI ที่ SBOM เพียงอย่างเดียวไม่สามารถป้องกันได้ รวมถึงกลยุทธ์การป้องกันที่ผสมผสานระหว่าง AI BOM, การตรวจสอบ Model Card, การใช้ OAuth แบบสิทธิ์ขั้นต่ำ (Least Privilege), การจัดการ Sensitive Secret และการแยกส่วน CI/CD เมื่ออ่านจบ คุณจะสามารถสร้างรายการตรวจสอบ (Checklist) สำหรับมาตรการป้องกันที่ยังขาดอยู่ในไปป์ไลน์การพัฒนา AI ขององค์กรคุณได้
ห่วงโซ่อุปทานของผลิตภัณฑ์ AI มีความกว้างขวางกว่าห่วงโซ่อุปทานซอฟต์แวร์แบบดั้งเดิม โดยมีการตรวจพบการละเมิดอย่างต่อเนื่องผ่าน 4 ช่องทาง ได้แก่ โมเดล (Models), แพ็กเกจที่ต้องพึ่งพา (Dependency Packages), SaaS DevOps และ AI Agent ในบทนี้จะสรุปเหตุการณ์สำคัญที่เกิดขึ้นในช่วงปี 2024–2026 และความกว้างขวางของพื้นผิวความเสี่ยง (Risk Surface) ที่เป็นลักษณะเฉพาะของการพัฒนา AI
เหตุการณ์ที่สั่นสะเทือนวงการพัฒนา AI ในช่วงปี 2024–2026 เกิดขึ้นผ่าน 4 ช่องทางที่มีลักษณะแตกต่างกัน ดังนี้:
แม้เหตุการณ์เหล่านี้จะดูเหมือนเป็นเหตุการณ์ที่แยกจากกัน แต่ทั้งหมดมีโครงสร้างเดียวกันคือ "จุดใดจุดหนึ่งในห่วงโซ่การพึ่งพา (Dependency) ของการพัฒนา AI/SaaS ถูกบุกรุก → นำไปสู่การรั่วไหลของกุญแจหรือโค้ดอย่างต่อเนื่องเป็นลูกโซ่"
เหตุผลที่พื้นผิวความเสี่ยง (risk surface) ของการพัฒนา AI กว้างกว่าเดิมมีอยู่ 4 ประการ
ประการแรก ไฟล์น้ำหนัก (weight files) สามารถกลายเป็นเพย์โหลดที่เรียกใช้งานได้ (executable payload) โมเดลในรูปแบบ Pickle สามารถรันโค้ด Python ใดๆ ก็ได้ และหากโหลดโดยไม่มีการสแกนก็จะนำไปสู่การถูกบุกรุกได้ ประการที่สอง มีธรรมเนียมการดึงน้ำหนักพื้นฐาน (base weights) หรือชุดข้อมูลมาจากฮับสาธารณะ ซึ่งหากบัญชีของฮับนั้นถูกบุกรุกก็จะส่งผลกระทบในทันที ประการที่สาม การพัฒนา AI ประกอบขึ้นจากห่วงโซ่ของ SaaS ไม่ว่าจะเป็น Model Registry, Vector Database, แพลตฟอร์มการปรับใช้ (deployment platform) หรือโครงสร้างพื้นฐานด้านบันทึก (log infrastructure) ซึ่ง API Key / OAuth Scope ของแต่ละส่วนล้วนกลายเป็นส่วนหนึ่งของห่วงโซ่อุปทาน ประการที่สี่ บริษัทจำนวนมากขึ้นได้นำ AI Coding Agent เข้ามาใช้ในการพัฒนา ทำให้การเพิ่ม Dependency ที่ตัว Agent เขียนขึ้นเองสามารถกลายเป็นเวกเตอร์การโจมตีได้ สิ่งเหล่านี้เป็นขอบเขตที่ไม่สามารถมองเห็นได้ด้วยเพียง SBOM และ CVE scan แบบดั้งเดิม จึงจำเป็นต้องมีมาตรการป้องกันเฉพาะสำหรับ AI
โมเดลที่ได้รับจากฮับสาธารณะ เช่น Hugging Face หากโหลดในรูปแบบ Pickle โดยตรง จะนำไปสู่การรันโค้ดโดยไม่ได้รับอนุญาต (Arbitrary Code Execution) การเปลี่ยนไปใช้ safetensors และการตรวจสอบลายเซ็นของ Model Card จึงเป็นแนวป้องกันด่านแรก ในบทนี้จะสรุปตัวอย่างจริงของแบ็คดอร์ในโมเดลสาธารณะ และความเสี่ยงที่เกิดจากการโหลดโมเดลโดยไม่มีการตรวจสอบ
ในรีจิสทรีโมเดลสาธารณะรวมถึง Hugging Face มีการรายงานกรณีที่โมเดลในรูปแบบ Pickle (.bin / .pkl / .pt) ถูกฝังแบ็คดอร์อย่างต่อเนื่อง ReversingLabs ได้เผยแพร่ PoC ที่สามารถหลบเลี่ยง Pickle scanner เพื่อเรียกใช้การเชื่อมต่อภายนอกหรือรีเวิร์สเชลล์ (reverse shell) ในขณะโหลดโมเดล และได้ตรวจพบตัวอย่างที่เป็นอันตรายจริงหลายรายการ (ที่มา: บทความวิเคราะห์ "nullifAI" ของ ReversingLabs) นอกจากนี้ JFrog Security Research ยังตรวจพบโมเดลที่ฝังแบ็คดอร์โดยใช้ Pickle จำนวนมากและได้แจ้งไปยังฝั่ง Hugging Face แล้ว (ที่มา: JFrog Security Research)
การโจมตีเหล่านี้ใช้การผสมผสานองค์ประกอบทางวิศวกรรมสังคม (social engineering) เช่น "การเผยแพร่ด้วยชื่อรีโพสิทอรีที่คล้ายคลึงกับชื่อโมเดลที่เป็นทางการ" หรือ "การอ้างว่าเป็นโมเดลที่ผ่านการ fine-tuned มาจากโมเดลที่เป็นทางการ" ตราบใดที่องค์กรพัฒนา AI ยังคงปล่อยให้วิศวกรแต่ละคนตัดสินใจเรียกใช้ from_pretrained() ด้วยตนเอง ความเสี่ยงจากการรัน Pickle ก็จะยังคงมีอยู่ตลอดเวลา ปัญหาสำคัญคือแบ็คดอร์เหล่านี้ไม่ใช่ "กรณีพิเศษ" แต่เป็นภัยคุกคามที่เกิดขึ้นอย่างต่อเนื่องซึ่งมีที่มาจากโครงสร้างของพับลิกฮับ (public hub) โดยตรง
การที่ Pickle สามารถรันโค้ดโดยไม่ได้รับอนุญาต (Arbitrary Code Execution) นั้นถือเป็นคุณสมบัติ (Specification) ไม่ใช่ข้อผิดพลาด (Bug) เนื่องจาก pickle.load() ของ Python ถูกออกแบบมาให้เรียกใช้ฟังก์ชันใดก็ได้ผ่าน __reduce__ ทำให้การโหลดข้อมูลโดยไม่มีการสแกนถือเป็นการถูกบุกรุกทันที (อ้างอิง: ส่วน "Warning" ในเอกสารประกอบโมดูล pickle ของ Python อย่างเป็นทางการ)
มาตรการป้องกันควรดำเนินการ 3 ขั้นตอน ดังนี้:
การรวบรวมการเรียกใช้ from_pretrained() ภายในองค์กรให้ผ่าน Wrapper กลาง โดยให้ Wrapper บังคับใช้การตรวจสอบ Registry, รูปแบบไฟล์ และลายเซ็น จะช่วยให้การจัดการทำได้ง่ายขึ้น การกำจัดสถานการณ์ที่วิศวกรโหลดไฟล์ Pickle แยกกันเองถือเป็นการป้องกันในระดับองค์กรอย่างแท้จริง
npm / PyPI のサードパーティパッケージおよび GitHub Actions は、AI 開発においても標準的に利用される依存層である。typosquatting、メンテナアカウントの乗っ取り、ビルド時の差し替えのいずれにおいても実例が存在する。 本章では、具体的な事例と多段攻撃の構造を整理する。
การละเมิดในชั้นของแพ็กเกจที่ต้องพึ่งพา (Dependency package layer) พบได้บ่อยครั้งในการพัฒนา AI โดยมีรูปแบบหลักที่พบบ่อย 3 ประการ ดังนี้:
ในการพัฒนา AI นอกจากแพ็กเกจระดับบนอย่าง transformers / torch / accelerate แล้ว ยังมีการพึ่งพาในระดับที่สองและสามที่ลึกซึ้ง เช่น Vector DB client, เฟรมเวิร์กสำหรับ Agent และไลบรารีสำหรับการประเมินผล ทีมที่จัดการเฉพาะแพ็กเกจระดับผิวเผินจึงมีความเสี่ยงเชิงโครงสร้างที่ทำให้ยากต่อการตรวจพบการละเมิดในระดับที่ลึกลงไป
xz utils バックドア (CVE-2024-3094) เป็นตัวอย่างที่แสดงให้เห็นว่าการละเมิดความปลอดภัยในระดับ dependency ไม่ได้จำกัดอยู่แค่ในแพ็กเกจเดียว ผู้โจมตีที่ใช้ชื่อว่า "Jia Tan" ใช้เวลามากกว่า 2 ปีในการได้รับสิทธิ์ maintainer ของโปรเจกต์ xz และค่อยๆ ฝังแบ็คดอร์ที่ถูกทำให้อ่านยาก (obfuscated) ลงใน liblzma โดย payload สุดท้ายจะทำการเขียนทับตรรกะการตรวจสอบสิทธิ์ของ sshd ผ่านทาง liblzma เพื่อสร้างช่องทางให้ผู้โจมตีเฉพาะกลุ่มสามารถข้ามการตรวจสอบสิทธิ์ SSH ได้ (ที่มา: NVD CVE-2024-3094, รายงานบน mailing list ของ oss-security โดย Andres Freund)
ในมุมมองของการพัฒนา AI มีบทเรียนสำคัญ 2 ประการ:
ประการแรก การยึดครองสถานะทางสังคมของ maintainer (Social Engineering of Maintainers) ไม่สามารถป้องกันได้ด้วยการตรวจจับทางเทคนิคเพียงอย่างเดียว นอกเหนือจากการลงนามใน commit และการสแกน CI แล้ว ยังจำเป็นต้องมีการสนับสนุน maintainer ให้กับ OSS ที่สำคัญอย่างเป็นระบบ, การติดตามระดับ SLSA และการนำ Reproducible Build มาใช้ ประการที่สอง ไลบรารีที่ไม่ได้ถูกเรียกใช้งานโดยตรง (เช่น ไลบรารีบีบอัดข้อมูลรอบๆ libc) อาจส่งผลกระทบต่อเส้นทาง SSH ของเซิร์ฟเวอร์ที่ใช้ประมวลผล AI ได้ ขอบเขตของ AI BOM จึงไม่ควรครอบคลุมเพียงแค่ ML stack เท่านั้น แต่ต้องรวมไปถึง OS layer ของโครงสร้างพื้นฐานที่ใช้ให้บริการโมเดลด้วย หากจำกัดขอบเขตโดยตั้งสมมติฐานว่า "เป็น OSS ที่ไม่เกี่ยวข้องกับการพัฒนา AI" ก็อาจทำให้มองข้ามการโจมตีในรูปแบบเดียวกับ xz utils ไปได้
การละเมิดแพลตฟอร์ม SaaS DevOps แตกต่างจากการรั่วไหลของข้อมูลนักพัฒนาแต่ละบุคคล เนื่องจากสิทธิ์ในการเข้าถึง Secret, Code และ Deployment ของลูกค้าหลายรายจะได้รับผลกระทบพร้อมกัน เหตุการณ์ของ Vercel ในเดือนเมษายน 2026 ได้เผยให้เห็นถึงความแตกต่างในการดำเนินงานระหว่างสิ่งที่ถูก encrypted และสิ่งที่ถือเป็น Sensitive ในบทนี้จะสรุปโครงสร้างของเหตุการณ์และบทเรียนที่ได้รับจากการดำเนินงาน
เหตุการณ์ที่ Vercel ประกาศเมื่อเดือนเมษายน 2026 เป็นกรณีที่บัญชีพนักงานถูกบุกรุกผ่านเครื่องมือ AI ของบุคคลที่สาม ส่งผลให้ตัวแปรสภาพแวดล้อม (environment variables) แบบ encrypted ของลูกค้าบางรายรั่วไหลออกสู่ภายนอก ทั้งนี้ Vercel ได้ประกาศว่าตัวแปรสภาพแวดล้อมแบบ Sensitive นั้นได้รับการป้องกันด้วยการเข้ารหัสและไม่พบหลักฐานการเข้าถึงแต่อย่างใด รวมถึงบริการยังคงทำงานได้อย่างต่อเนื่อง และห่วงโซ่อุปทานของ npm package ยังคงมีความปลอดภัย (ที่มา: Vercel KB Bulletin "April 2026 security incident")
สิ่งที่สำคัญคือ Vercel มีโหมดการจัดเก็บตัวแปรสภาพแวดล้อมหลายรูปแบบ ดังนี้:
บทเรียนที่ได้รับนั้นชัดเจน คือ API key, token, ข้อมูลรับรองฐานข้อมูล (database credentials) และกุญแจสำหรับลงลายมือชื่อ (signing keys) จำเป็นต้องตั้งค่าเป็น Sensitive เท่านั้น ห้ามใช้งานในโหมด encrypted เดิมเพียงเพราะ "แก้ไขน้อยกว่า" โดยเด็ดขาด การสร้างกุญแจใหม่ควรตั้งค่าเป็น Sensitive ตั้งแต่ต้น และควรกำหนดให้การยกระดับเป็น Sensitive เป็นมาตรฐานในการหมุนเวียนกุญแจ (rotation) ทุกครั้ง ซึ่งภายหลังเหตุการณ์นี้ Vercel เองก็ได้เปลี่ยนค่าเริ่มต้นของตัวแปรสภาพแวดล้อมให้เปิดใช้งาน Sensitive โดยอัตโนมัติแล้ว
ความน่ากลัวของ SaaS Chain คือการที่การถูกบุกรุกของแพลตฟอร์มเดียวสามารถลุกลามไปไกลกว่าขอบเขตของ OAuth Scope ที่เชื่อมโยงกันได้ ไม่ว่าจะเป็น OAuth จาก Vercel ไปยัง GitHub, การแจ้งเตือนจาก Vercel ไปยัง Slack หรือ Telemetry จาก Vercel ไปยัง PostHog / Sentry ซึ่ง SaaS มักจะมีการถือครอง API Key หรือ OAuth Token ของกันและกัน หาก encrypted env ที่ถูกเปิดเผยมี API Key ของ SaaS อื่นรวมอยู่ด้วย ความเสียหายก็จะขยายวงกว้างไปยัง SaaS เหล่านั้นด้วยเช่นกัน
ในด้านการปฏิบัติงาน ให้ใช้หลักการ 4 ประการร่วมกัน ดังนี้:
ยิ่งเป็นแพลตฟอร์มขนาดใหญ่อย่าง Vercel ยิ่งต้องให้ความสำคัญกับการแยกกุญแจและการออกแบบสิทธิ์ขั้นต่ำจากฝั่งผู้ใช้งาน การสร้างโครงสร้างที่ช่วยให้บริษัทสามารถลดขอบเขตความเสียหายเชิงรุกได้ในกรณีที่ Vendor ถูกบุกรุก คือการป้องกันที่แท้จริง

AI โค้ดดิ้งเอเจนต์ (AI Coding Agents) ช่วยเพิ่มประสิทธิภาพการทำงานได้ก็จริง แต่ในขณะเดียวกันก็อาจกลายเป็นเวกเตอร์การโจมตี (Attack Vector) รูปแบบใหม่ได้ ความเสี่ยงที่เอเจนต์จะดำเนินการแก้ไขส่วนประกอบที่พึ่งพา (Dependency) หรือแทรกโค้ดอันตรายผ่านการทำ Prompt Injection กำลังกลายเป็นภัยคุกคามที่เกิดขึ้นจริง ในบทนี้ เราจะมาสรุปห่วงโซ่การโจมตีผ่านเอเจนต์และการออกแบบขอบเขตสิทธิ์ (Permission Boundaries) ในเวิร์กโฟลว์ของนักพัฒนา
AI コーディングエージェント (เอเจนต์เขียนโค้ดที่ใช้ Claude / GPT / Gemini เบื้องหลัง) ได้กลายเป็นมาตรฐานในการออกแบบที่ไม่เพียงแค่สร้างโค้ดเท่านั้น แต่ยังรวมถึงการเรียกใช้เครื่องมือเพื่อแก้ไข package.json สร้างไฟล์ รันคำสั่ง pnpm add และทำ git commit โดยอัตโนมัติ สิ่งนี้ทำให้ช่องทางในการเกิด Indirect Prompt Injection (การฉีดคำสั่งผ่านช่องทางอ้อม) เพิ่มมากขึ้น ซึ่งเกิดจากการที่ "ข้อความภายนอก" ที่เอเจนต์อ่านเข้าไปถูกนำไปปฏิบัติเป็นคำสั่งโดยตรง (ที่มา: OWASP Top 10 for LLM Applications LLM01: Prompt Injection)
สถานการณ์ที่เป็นรูปธรรมมี 3 ประการ:
node_modules ที่มีอยู่นี่คือการโจมตีที่เกิดขึ้นจากการรวมกันของ LLM01 (Prompt Injection) และ LLM02 (Insecure Output Handling) ใน OWASP LLM Top 10 ซึ่งมาตรการความปลอดภัยของตัวโมเดลเพียงอย่างเดียวไม่สามารถป้องกันได้ ยิ่งนำเอเจนต์เข้ามาอยู่ในกระบวนการพัฒนามากเท่าใด โครงสร้างที่เชื่อมโยงระหว่างอินพุตภายนอกกับการแก้ไข dependency ก็จะยิ่งขยายกว้างขึ้นเท่านั้น
การใช้งาน AI Coding Agent อย่างปลอดภัย จำเป็นต้องออกแบบโดยแยกสิทธิ์ของ Agent ออกเป็น "การสร้างโค้ดเท่านั้น" และ "การดำเนินการที่มีผลกระทบข้างเคียง (เช่น การเพิ่มแพ็กเกจ, การคอมมิต, และการดีพลอย)" โดยมีรูปแบบการนำไปใช้งาน (Implementation Patterns) 4 ประการ ดังนี้:
pnpm add, npm install หรือ pip install โดยให้ Agent เป็นผู้เสนอและนักพัฒนาเป็นผู้อนุมัติ นอกจากนี้ ใน CI ต้องบังคับใช้ --frozen-lockfile และกำหนดให้การเพิ่ม Dependency ใหม่ต้องผ่านการรีวิวเสมอแม้มาตรการเหล่านี้จะลดทอนประสิทธิภาพการทำงานลงบ้าง แต่เป็นสิ่งที่จำเป็นอย่างยิ่งเมื่อ AI Coding Agent ถูกนำไปใช้ในองค์กรขนาดใหญ่ การเปิดใช้งาน Agent อย่างเต็มรูปแบบโดยไม่มีการควบคุมเปรียบเสมือนการแบกรับความเสี่ยงในโครงสร้างเดียวกับการอ้างอิง Third-party Action เช่น tj-actions โดยไม่ระบุ SHA pin

การป้องกันห่วงโซ่อุปทาน (Supply Chain) สำหรับการพัฒนา AI ไม่สามารถทำได้ด้วยเครื่องมือเพียงอย่างเดียว การป้องกันเชิงลึก (Defense-in-Depth) ที่ผสมผสานระหว่าง AI BOM, การตรวจสอบ Model Card, สิทธิ์ขั้นต่ำแบบ OAuth, การจัดการ Sensitive Secret, การแยกส่วน CI/CD และบันทึกการตรวจสอบ (Audit Trail) คือแนวทางที่เป็นจริงที่สุด ในบทนี้จะแบ่งรูปแบบการนำไปใช้งานออกเป็น 2 กลุ่มเพื่อทำการสรุปข้อมูล
AI BOM (AI Bill of Materials) คือการต่อยอดจาก SBOM แบบดั้งเดิมไปสู่ส่วนประกอบของ AI (น้ำหนักโมเดล / ชุดข้อมูล / รันไทม์การอนุมาน / ข้อมูลการประเมินผล) โดยในปัจจุบันมีการพัฒนามาตรฐานอุตสาหกรรมอย่างต่อเนื่องผ่านทาง CycloneDX AI/ML BOM extension, OWASP AI Exchange และ SPDX 3.0 ML profile (ที่มา: CycloneDX Specification 1.5 ขึ้นไป, OWASP AI Exchange, SPDX 3.0)
ขั้นตอนการดำเนินการมี 4 ขั้นตอน ดังนี้:
การจัดทำ AI BOM จะช่วยให้สามารถตรวจสอบย้อนกลับจาก BOM ได้ว่า "บริษัทได้รับผลกระทบหรือไม่" เมื่อมีการประกาศถึงการปนเปื้อนของโมเดลหรือการแก้ไขส่วนประกอบที่พึ่งพาใหม่ ซึ่งจะช่วยลดระยะเวลาในการตอบสนองต่อเหตุการณ์ฉุกเฉินได้อย่างมาก
เพื่อเป็นการป้องกันอีกชั้นหนึ่ง ให้เสริมความมั่นคงของ SaaS Chain และกระบวนการดำเนินงานด้วย 4 มาตรการดังต่อไปนี้:
มาตรการทั้ง 4 ข้อนี้จะเป็นเบรกเกอร์ตัวสุดท้ายที่ช่วยป้องกันไม่ให้ความเสียหายลุกลามไปทั่วทั้งองค์กรหาก SaaS ตัวใดตัวหนึ่งถูกบุกรุก สิ่งสำคัญคือต้องทำให้มาตรการเหล่านี้กลายเป็นกฎการดำเนินงานร่วมกันขององค์กร ไม่ใช่เพียงมาตรการเฉพาะของผู้ให้บริการรายใดรายหนึ่งเท่านั้น

ห่วงโซ่อุปทาน (Supply Chain) ของการพัฒนา AI ได้ขยายตัวจากเดิมที่มีเพียง 2 ชั้น คือ "โค้ด + แพ็กเกจที่ต้องพึ่งพา (Dependency Packages)" ไปสู่ 4 ชั้น ได้แก่ "โมเดลสาธารณะ + แพ็กเกจที่ต้องพึ่งพา + SaaS DevOps + AI Agent" เหตุการณ์ช่องโหว่การรันโค้ดโดยอำเภอใจ (Arbitrary Code Execution) ใน Pickle ของ Hugging Face, การแก้ไขดัดแปลง tj-actions, แบ็คดอร์หลายชั้นใน xz utils และเหตุการณ์ที่ Vercel ในเดือนเมษายน 2026 ล้วนเป็นผลมาจากการที่ส่วนใดส่วนหนึ่งของห่วงโซ่อุปทานที่ขยายตัวนี้ถูกละเมิด
การป้องกันไม่สามารถทำได้ด้วยวิธีแก้ปัญหาเพียงวิธีเดียว โดยสามารถสรุปมาตรการรับมือตามแต่ละเส้นทางได้ดังนี้:
การจำแนกประเภทตามกรอบ 4 เส้นทางในบทความนี้ เพื่อระบุและเติมเต็มส่วนที่องค์กรยังขาดอยู่ คือทางลัดในการยกระดับการพัฒนา AI ขององค์กรให้เป็นไปตามมาตรฐานปี 2026 ทั้งนี้ ทางบริษัทของเราได้นำมุมมองการตรวจสอบจากบทความนี้ไปพัฒนาเป็นเทมเพลตการตรวจสอบภายในสำหรับองค์กรพัฒนา AI ควบคู่ไปกับการใช้คู่มือปฏิบัติงาน (Rolebook) เพื่อตอบสนองทันทีเมื่อได้รับแจ้งการละเมิดจากผู้ให้บริการ (Vendor)

Yusuke Ishihara
เริ่มเขียนโปรแกรมตั้งแต่อายุ 13 ปี ด้วย MSX หลังจบการศึกษาจากมหาวิทยาลัย Musashi ได้ทำงานพัฒนาระบบขนาดใหญ่ รวมถึงระบบหลักของสายการบิน และโครงสร้าง Windows Server Hosting/VPS แห่งแรกของญี่ปุ่น ร่วมก่อตั้ง Site Engine Inc. ในปี 2008 ก่อตั้ง Unimon Inc. ในปี 2010 และ Enison Inc. ในปี 2025 นำทีมพัฒนาระบบธุรกิจ การประมวลผลภาษาธรรมชาติ และแพลตฟอร์ม ปัจจุบันมุ่งเน้นการพัฒนาผลิตภัณฑ์และการส่งเสริม AI/DX โดยใช้ generative AI และ Large Language Models (LLM)