โอเพนเวทโมเดล (Open-weight model) คือโมเดลภาษาที่เปิดเผยค่าน้ำหนัก (พารามิเตอร์) ของโมเดลที่ผ่านการเทรนแล้วต่อสาธารณะ ผู้ใช้สามารถดาวน์โหลดและนำไปใช้งานได้อย่างอิสระ ทั้งในการ Inference และ Fine-tuning
## ความแตกต่างจาก "โอเพนซอร์ส" แม้จะเป็นคำที่มักถูกสับสนกัน แต่ Open Weight และ Open Source ไม่ใช่สิ่งเดียวกัน โอเพนซอร์สในบริบทของซอฟต์แวร์หมายถึงการเปิดเผยทุกอย่างตั้งแต่ซอร์สโค้ด ข้อมูลการเทรน ไปจนถึงขั้นตอนการเทรน เพื่อให้ทุกคนสามารถนำไปสร้างซ้ำหรือดัดแปลงได้ ในขณะที่ Open Weight เป็นแนวคิดที่จำกัดกว่า หมายถึงเพียง "การเปิดเผยไฟล์ Weight ที่ผ่านการเทรนแล้ว" เท่านั้น Llama 3 ของ Meta เปิดเผย Weight ของโมเดล แต่รายละเอียดของชุดข้อมูลที่ใช้ในการเทรนยังคงเป็นความลับ และการใช้งานเชิงพาณิชย์ก็มีเงื่อนไขขึ้นอยู่กับจำนวนผู้ใช้รายเดือน Mistral เองก็เปิดเผย Weight เช่นกัน แต่ License นั้นมีทั้ง Apache 2.0 และ License เฉพาะของตัวเองปะปนกันแล้วแต่โมเดล ดังนั้นการเรียกว่า "Open Weight" จึงถูกต้องกว่าการเรียกว่าโอเพนซอร์สในความหมายที่เคร่งครัด ## เหตุใดการเปิดเผย Weight จึงมีความสำคัญ การมี Weight อยู่ในมือหมายความว่าสามารถรัน Inference ภายใต้การควบคุมของบริษัทได้อย่างสมบูรณ์ ซึ่งมีนัยสำคัญใน 3 ประเด็นดังนี้ **อิสระในการปรับแต่ง**: สามารถทำ Fine-tuning ด้วยข้อมูลของบริษัทเพื่อสร้างโมเดลที่เชี่ยวชาญเฉพาะด้านได้ เปิดโอกาสให้ปรับแต่งเชิงลึกในแบบที่ไม่สามารถทำได้ผ่าน API และด้วย PEFT หรือ LoRA การทำ Fine-tuning บน GPU สำหรับผู้บริโภคเพียงหนึ่งใบก็เป็นเรื่องที่ทำได้จริง **การรักษาอธิปไตยของข้อมูล**: เนื่องจากไม่มีการส่งข้อมูลออกไปภายนอกในระหว่างการ Inference จึงสามารถนำไปใช้กับงานที่เกี่ยวข้องกับข้อมูลที่เป็นความลับได้ นี่คือเหตุผลที่อุตสาหกรรมที่มีกฎระเบียบเข้มงวด เช่น การเงิน การแพทย์ และกฎหมาย นำไปใช้งานมากขึ้นเรื่อยๆ **การหลีกเลี่ยง Vendor Lock-in**: ไม่ต้องพึ่งพาผู้ให้บริการ API รายใดรายหนึ่งโดยเฉพาะ ทำให้สามารถแยก AI Infrastructure ของบริษัทออกจากความเสี่ยงด้านการปรับราคาหรือการยุติบริการได้ ## โมเดล Open Weight หลักๆ (ณ ปี 2026) ซีรีส์ Llama 4 ของ Meta มีขนาดให้เลือกหลากหลายตั้งแต่ Scout (17B active / 109B total) ไปจนถึง Behemoth (288B active / 2T total) โดยใช้สถาปัตยกรรม Mixture of Experts Gemma 3 ของ Google เน้นแนวทางน้ำหนักเบาในช่วง 1B ถึง 27B Mistral นำเสนอประสิทธิภาพระดับ Commercial Grade ด้วย Mistral Large 2 พร้อมกับออก Version น้ำหนักเบาควบคู่กันไป ส่วนฝั่งจีน DeepSeek-V3 และ Qwen 2.5 ต่างโดดเด่นด้านประสิทธิภาพหลายภาษา สิ่งที่ต้องตรวจสอบในการคัดเลือกไม่ได้มีเพียงประสิทธิภาพของโมเดลเท่านั้น แต่ยังต้องพิจารณาเงื่อนไข License (ความเป็นไปได้ในการใช้งานเชิงพาณิชย์ ข้อจำกัดด้านจำนวนผู้ใช้) ภาษาที่รองรับ และ Spec ของ Hardware ที่จำเป็นล่วงหน้าด้วย

A2A (Agent-to-Agent Protocol) คือโปรโตคอลการสื่อสารที่ช่วยให้ AI Agent ต่างชนิดสามารถค้นหาความสามารถ มอบหมายงาน และซิงโครไนซ์สถานะระหว่างกันได้ โดย Google เปิดตัวในเดือนเมษายน ปี 2025

Agentic AI คือชื่อเรียกรวมของระบบ AI ที่สามารถตีความเป้าหมาย และวางแผน ดำเนินการ รวมถึงตรวจสอบผลลัพธ์ได้อย่างอิสระโดยไม่ต้องรับคำสั่งทีละขั้นตอนจากมนุษย์

ATDD (Acceptance Test-Driven Development) คือวิธีการพัฒนาซอฟต์แวร์ที่ทีมงานทั้งหมดร่วมกันกำหนดเกณฑ์การทดสอบการยอมรับ (Acceptance Test) ก่อนเริ่มการพัฒนา จากนั้นจึงทำการ Automate การทดสอบดังกล่าว แล้วจึงดำเนินการ Implement ต่อไป


Multi-Agent AI คืออะไร? ครอบคลุมตั้งแต่รูปแบบการออกแบบไปจนถึงเคล็ดลับการใช้งานและการดำเนินการ

Claude Agent SDK คือชุดเครื่องมือพัฒนา (development kit) สำหรับสร้าง AI Agent ที่จัดทำโดย Anthropic ซึ่งเป็น framework สำหรับการพัฒนา Agent ที่ใช้ประโยชน์จาก Tool Use และการสนทนาแบบหลายรอบ (multi-turn conversation) ของ Claude ผ่านโค้ด Python และ TypeScript