
A2A (โปรโตคอลตัวแทนต่อตัวแทน)
A2A (Agent-to-Agent Protocol) คือโปรโตคอลการสื่อสารที่ช่วยให้ AI Agent ต่างชนิดสามารถค้นหาความสามารถ มอบหมายงาน และซิงโครไนซ์สถานะระหว่างกันได้ โดย Google เปิดตัวในเดือนเมษายน ปี 2025
คำอธิบายที่เข้าใจง่ายเกี่ยวกับคำศัพท์ AI, DX และเทคโนโลยี

A2A (Agent-to-Agent Protocol) คือโปรโตคอลการสื่อสารที่ช่วยให้ AI Agent ต่างชนิดสามารถค้นหาความสามารถ มอบหมายงาน และซิงโครไนซ์สถานะระหว่างกันได้ โดย Google เปิดตัวในเดือนเมษายน ปี 2025

Agentic RAG คือสถาปัตยกรรมที่ LLM ทำหน้าที่เป็น Agent โดยวนซ้ำกระบวนการสร้าง Query ค้นหา ประเมินผลลัพธ์ และตัดสินใจค้นหาซ้ำอย่างอิสระ เพื่อให้ได้ความแม่นยำของคำตอบที่เหนือกว่า RAG แบบถาม-ตอบทั่วไป

Agentic AI คือชื่อเรียกรวมของระบบ AI ที่สามารถตีความเป้าหมาย และวางแผน ดำเนินการ รวมถึงตรวจสอบผลลัพธ์ได้อย่างอิสระโดยไม่ต้องรับคำสั่งทีละขั้นตอนจากมนุษย์

ATDD (Acceptance Test-Driven Development) คือวิธีการพัฒนาซอฟต์แวร์ที่ทีมงานทั้งหมดร่วมกันกำหนดเกณฑ์การทดสอบการยอมรับ (Acceptance Test) ก่อนเริ่มการพัฒนา จากนั้นจึงทำการ Automate การทดสอบดังกล่าว แล้วจึงดำเนินการ Implement ต่อไป

BM25 (Best Matching 25) คือ อัลกอริทึมการค้นคืนสารสนเทศเชิงความน่าจะเป็น ที่ทำการให้คะแนนความเกี่ยวข้องระหว่างเอกสารกับ query โดยพิจารณาจากความถี่ของคำในเอกสารและความยาวของเอกสาร

Claude Agent SDK คือชุดเครื่องมือพัฒนา (development kit) สำหรับสร้าง AI Agent ที่จัดทำโดย Anthropic ซึ่งเป็น framework สำหรับการพัฒนา Agent ที่ใช้ประโยชน์จาก Tool Use และการสนทนาแบบหลายรอบ (multi-turn conversation) ของ Claude ผ่านโค้ด Python และ TypeScript

Claude Code คือ AI Coding Agent ประเภท Terminal-based ที่พัฒนาโดย Anthropic ซึ่งเป็นเครื่องมือ CLI ที่สามารถทำความเข้าใจ Codebase แก้ไขโค้ด รันการทดสอบ และดำเนินการ Git ได้อย่างครบวงจรผ่านคำสั่งภาษาธรรมชาติ

Dense Model (โมเดลแบบเชื่อมต่อหนาแน่น) คือสถาปัตยกรรมเครือข่ายประสาทเทียมที่ใช้พารามิเตอร์ทั้งหมดของโมเดลในการคำนวณระหว่างการอนุมาน ต่างจาก MoE (Mixture of Experts) ที่เปิดใช้งานเฉพาะบางส่วนของ Expert Dense Model จะให้ weight ทั้งหมดมีส่วนร่วมในการประมวลผลเสมอ ไม่ว่า input จะเป็นอะไรก็ตาม

DevOps คือชื่อเรียกรวมของวัฒนธรรมและแนวปฏิบัติที่บูรณาการการพัฒนาซอฟต์แวร์ (Development) และการดำเนินงาน (Operations) เข้าด้วยกัน โดยมุ่งเร่งรอบวงจรการเผยแพร่และยกระดับคุณภาพไปพร้อมกัน ผ่าน CI/CD pipeline และเครื่องมืออัตโนมัติต่าง ๆ

DevSecOps คือแนวทางที่นำมาตรการด้านความปลอดภัยมาผนวกรวมไว้ตั้งแต่ต้นในกระบวนการ DevOps pipeline โดยบูรณาการสามด้านเข้าด้วยกัน ได้แก่ การพัฒนา (Development) ความปลอดภัย (Security) และการปฏิบัติการ (Operations)

Gemini Embedding 2 คือโมเดล embedding ที่รองรับ multimodal ซึ่งพัฒนาโดย Google สามารถแปลงข้อความ รูปภาพ วิดีโอ เสียง และเอกสารให้อยู่ในพื้นที่เวกเตอร์เดียวกันได้

GPU (Graphics Processing Unit) คือชิปเซมิคอนดักเตอร์ที่ประมวลผลการคำนวณแบบขนานจำนวนมากได้อย่างรวดเร็ว เดิมทีได้รับการออกแบบมาเพื่อการเรนเดอร์ภาพกราฟิก แต่ความสามารถในการคำนวณแบบขนานนั้นเหมาะอย่างยิ่งสำหรับการเรียนรู้และการอนุมานของ AI จึงกลายเป็นฮาร์ดแวร์ที่ขาดไม่ได้สำหรับการฝึกและการ fine-tuning ของ LLM ในปัจจุบัน

สถาปัตยกรรม RAG รุ่นถัดไปที่ผสมผสาน Knowledge Graph และการค้นหาแบบ Vector เข้าด้วยกัน โดยใช้ประโยชน์จากความสัมพันธ์ระหว่าง Entity เพื่อเพิ่มความแม่นยำในการค้นหา

HITL (Human-in-the-Loop) คือวิธีการที่นำกระบวนการให้มนุษย์ตรวจสอบ แก้ไข และอนุมัติผลลัพธ์ของระบบ AI มาผนวกไว้ในการออกแบบ แทนที่จะใช้ระบบอัตโนมัติเต็มรูปแบบ วิธีนี้กำหนดจุดที่มนุษย์เข้ามามีส่วนร่วมตามระดับความสำคัญของการตัดสินใจ เพื่อรับประกันความแม่นยำและความน่าเชื่อถือ

LLM (Large Language Model) คือชื่อเรียกรวมของโมเดลเครือข่ายประสาทเทียมที่มีพารามิเตอร์ตั้งแต่หลายพันล้านถึงหลายล้านล้านตัว ซึ่งผ่านการเรียนรู้ล่วงหน้าด้วยข้อมูลข้อความจำนวนมหาศาล และสามารถทำความเข้าใจและสร้างภาษาธรรมชาติได้อย่างแม่นยำสูง

Local LLM คือรูปแบบการใช้งานที่รันโมเดลภาษาขนาดใหญ่ (Large Language Model) โดยตรงบนเซิร์ฟเวอร์หรือพีซีของตนเอง โดยไม่ผ่าน Cloud API

LoRA (Low-Rank Adaptation) คือวิธีการที่แทรกเมทริกซ์ผลต่างแบบ low-rank เข้าไปในเมทริกซ์น้ำหนักของโมเดลภาษาขนาดใหญ่ และทำการเรียนรู้เฉพาะส่วนผลต่างนั้น ซึ่งช่วยให้สามารถทำ fine-tuning ได้โดยเพิ่มพารามิเตอร์เพียงประมาณ 0.1–1% ของโมเดลทั้งหมด

MCP (Model Context Protocol) คือโปรโตคอลมาตรฐานที่ช่วยให้ AI Agent เชื่อมต่อกับเครื่องมือภายนอก ฐานข้อมูล และ API โดยเป็นมาตรฐานเปิดที่พัฒนาโดย Anthropic และได้รับการมอบให้แก่ Agentic AI Foundation ของ Linux Foundation

MLOps คือแนวปฏิบัติที่มุ่งทำให้วงจรชีวิตทั้งหมดของการพัฒนา การเทรน การ deploy และการติดตามตรวจสอบโมเดล machine learning เป็นแบบอัตโนมัติและมีมาตรฐาน เพื่อให้สามารถดำเนินการโมเดลในสภาพแวดล้อม production ได้อย่างต่อเนื่อง

MoE (Mixture of Experts) คือสถาปัตยกรรมที่มี "ผู้เชี่ยวชาญ" (Expert) ซับเน็ตเวิร์กหลายตัวภายในโมเดล โดยจะเปิดใช้งานเพียงบางส่วนสำหรับแต่ละอินพุต ซึ่งช่วยให้สามารถเพิ่มจำนวนพารามิเตอร์ทั้งหมดได้ในขณะที่ยังควบคุมต้นทุนการอนุมานให้อยู่ในระดับต่ำ

n8n (nodemation) คือแพลตฟอร์มอัตโนมัติแบบโอเพนซอร์สที่ช่วยสร้างเวิร์กโฟลว์อัตโนมัติด้วยวิธี no-code/low-code

NDVI (Normalized Difference Vegetation Index · ดัชนีพืชพรรณแบบนอร์มอลไลซ์) คือดัชนีที่ได้จากการนอร์มอลไลซ์ความแตกต่างของค่าการสะท้อนแสงระหว่างแบนด์อินฟราเรดใกล้และแบนด์สีแดงในภาพถ่ายดาวเทียม คำนวณด้วยสูตร (NIR - Red) / (NIR + Red) เพื่อประเมินความมีชีวิตชีวาและความหนาแน่นของพืชพรรณเชิงปริมาณ

OWASP (Open Worldwide Application Security Project) คือโครงการชุมชนเปิดที่มุ่งเน้นการปรับปรุงความปลอดภัยของซอฟต์แวร์ เป็นที่รู้จักกันอย่างแพร่หลายจากการจัดอันดับความเสี่ยงด้านช่องโหว่ "OWASP Top 10"

PDPA (Personal Data Protection Act) คือกฎหมายที่ควบคุมการเก็บรวบรวม การใช้ การจัดเก็บ และการโอนข้อมูลส่วนบุคคลในประเทศไทย ซึ่งเปรียบได้กับกฎหมายคุ้มครองข้อมูลของไทยที่มีลักษณะเทียบเท่า GDPR ของสหภาพยุโรป

PEFT (Parameter-Efficient Fine-Tuning) คือชื่อเรียกรวมของวิธีการ fine-tuning ที่ปรับโมเดลให้เข้ากับงานเฉพาะด้วยทรัพยากรการคำนวณและข้อมูลที่น้อยลง โดยอัปเดตเพียงบางส่วนของพารามิเตอร์ในโมเดลภาษาขนาดใหญ่ แทนที่จะอัปเดตพารามิเตอร์ทั้งหมด

PMF (Product-Market Fit) หมายถึง สถานะที่ผลิตภัณฑ์สามารถแก้ปัญหาของลูกค้าในตลาดเฉพาะได้อย่างตรงจุด และเกิดความต้องการที่ยั่งยืนขึ้นอย่างเป็นธรรมชาติ

PoC (Proof of Concept, การพิสูจน์แนวคิด) คือกระบวนการตรวจสอบความเป็นไปได้ของเทคโนโลยีหรือแนวคิดใหม่ในขนาดเล็ก โดยมีจุดประสงค์เพื่อทำให้ความเสี่ยงมองเห็นได้ชัดเจนก่อนลงทุนพัฒนาจริง และใช้ตัดสินใจว่า "แนวทางนี้สามารถบรรลุเป้าหมายที่ต้องการได้หรือไม่"

QLoRA (Quantized LoRA) คือวิธีการที่ผสมผสาน LoRA เข้ากับการ quantization แบบ 4 บิต ทำให้สามารถทำ fine-tuning โมเดลภาษาขนาดใหญ่ได้แม้บน GPU ระดับผู้บริโภคทั่วไป

RAG (Retrieval-Augmented Generation) คือเทคนิคที่ทำการค้นหาข้อมูลที่เกี่ยวข้องจากแหล่งความรู้ภายนอก แล้วนำผลลัพธ์ที่ได้มาเพิ่มเติมใน input ของ LLM เพื่อเพิ่มความแม่นยำและความทันสมัยของคำตอบ

RLHF คือวิธีการเรียนรู้เสริมแรง (Reinforcement Learning) ที่ใช้ข้อเสนอแนะจากมนุษย์เป็นรางวัล ส่วน RLVR คือวิธีการเรียนรู้เสริมแรงที่ใช้คำตอบที่ตรวจสอบได้เป็นรางวัล โดยทั้งสองวิธีถูกนำมาใช้เพื่อปรับผลลัพธ์ของ LLM ให้สอดคล้องกับความคาดหวังของมนุษย์

RRF (Reciprocal Rank Fusion) คือวิธีการให้คะแนนเพื่อรวมผลลัพธ์การจัดอันดับจากหลายวิธีการค้นหาเข้าด้วยกัน โดยการนำค่าส่วนกลับของอันดับจากแต่ละวิธีมารวมกัน ทำให้สามารถผสานระบบคะแนนที่แตกต่างกันได้โดยไม่ต้องทำการ Normalization

Sentinel-2 คือดาวเทียมสำรวจโลกในโครงการ Copernicus ที่นำโดย ESA (องค์การอวกาศยุโรป) ทำการบันทึกภาพ multispectral จำนวน 13 แบนด์ ครอบคลุมตั้งแต่ช่วงแสงที่มองเห็นได้จนถึงช่วงอินฟราเรดคลื่นสั้น (SWIR) ด้วยความละเอียด 10–60 เมตร และมีรอบการกลับมาถ่ายภาพซ้ำประมาณ 5 วัน เพื่อติดตามพื้นที่บนบกอย่างต่อเนื่อง ถูกนำไปใช้งานอย่างแพร่หลายในด้านการติดตามพื้นที่เกษตรกรรมและพืชพรรณ การจำแนกประเภทการใช้ที่ดิน และการเปรียบเทียบพื้นที่ก่อนและหลังเกิดภัยพิบัติ โดยข้อมูลทั้งหมดเผยแพร่แบบเปิดและให้บริการฟรี

SLM (Small Language Model) คือชื่อเรียกรวมของโมเดลภาษาที่จำกัดจำนวนพารามิเตอร์ไว้ที่ระดับหลายพันล้านถึงประมาณหนึ่งหมื่นล้านพารามิเตอร์ โดยมีคุณสมบัติเด่นคือสามารถทำ Inference และ Fine-tuning ได้โดยใช้ทรัพยากรการคำนวณน้อยกว่า LLM

AWS Systems Manager (SSM) คือ AWS Managed Service ที่ใช้สำหรับบริหารจัดการและดำเนินการ EC2 Instance และ On-premises Server อย่างรวมศูนย์ โดยสามารถดำเนินงานด้านปฏิบัติการต่างๆ เช่น การ Patch, การรันคำสั่ง, การจัดการ Parameter และการเก็บข้อมูล Inventory ได้จากจุดเดียว โดยไม่จำเป็นต้องเชื่อมต่อแยกผ่าน SSH หรือ RDP

TDD (Test-Driven Development) คือวิธีการพัฒนาซอฟต์แวร์ที่เขียน Test ก่อนเขียนโค้ดจริง โดยวนซ้ำในวงจรสั้น ๆ ได้แก่ Test ล้มเหลว (RED) → การ Implement (GREEN) → การ Refactor (Refactor)

EU AI Act (กฎระเบียบปัญญาประดิษฐ์ของสหภาพยุโรป) คือกฎระเบียบครอบคลุมของสหภาพยุโรปที่กำหนดภาระผูกพันทางกฎหมายตามระดับความเสี่ยงของระบบ AI โดยจำแนก AI ออกเป็น 4 ระดับ ได้แก่ "ความเสี่ยงที่ยอมรับไม่ได้" "ความเสี่ยงสูง" "ความเสี่ยงจำกัด" และ "ความเสี่ยงต่ำสุด" โดยยิ่งมีความเสี่ยงสูงเท่าใด ก็จะยิ่งถูกกำหนดข้อกำหนดที่เข้มงวดมากขึ้นเท่านั้น

โมเดลข้อมูลที่แสดงเอนทิตีและความสัมพันธ์ในรูปแบบโครงสร้างกราฟ ใช้เพื่อเพิ่มความแม่นยำใน RAG และการค้นหาด้วย AI

เทคนิคการถ่ายโอนความรู้จากโมเดลครู (teacher model) ขนาดใหญ่ไปยังโมเดลนักเรียน (student model) ขนาดเล็ก เพื่อสร้างโมเดลที่มีน้ำหนักเบาและมีความแม่นยำสูง

Dynamic Pricing คือกลยุทธ์การตั้งราคาที่ปรับราคาสินค้าหรือบริการแบบเรียลไทม์ตามปัจจัยที่เปลี่ยนแปลง เช่น อุปสงค์ อุปทาน สภาวะการแข่งขัน และช่วงเวลา วิธีนี้ถูกใช้มาอย่างยาวนานในการกำหนดราคาตั๋วเครื่องบินและห้องพักโรงแรม และกำลังขยายตัวไปสู่อุตสาหกรรมที่หลากหลายมากขึ้น เช่น ค้าปลีกและร้านอาหาร อันเป็นผลมาจากการแพร่หลายของ AI

การค้นหาแบบไฮบริด (Hybrid Search) คือเทคนิคที่ผสมผสานการค้นหาแบบคีย์เวิร์ด (เช่น BM25) กับการค้นหาเชิงเวกเตอร์ (Semantic Search) เพื่อใช้จุดแข็งของทั้งสองวิธีในการปรับปรุงความแม่นยำ

เทคนิคการปรับแต่งที่ลดความแม่นยำของพารามิเตอร์โมเดลจาก 16 บิต ลงเหลือ 4 บิต เป็นต้น เพื่อบีบอัดขนาดและเปิดใช้งานการ inference ภายใต้ทรัพยากรการประมวลผลที่จำกัด

เทคนิคการโจมตีที่ใช้อินพุตที่เป็นอันตรายเพื่อควบคุมพฤติกรรมของ LLM ให้เบี่ยงเบนไปจากที่ตั้งใจไว้ ถูกจัดให้เป็นความเสี่ยงสูงสุดใน OWASP LLM Top 10

เทคนิคการนำผลลัพธ์จาก LLM มาตรวจสอบเทียบกับแหล่งข้อมูลภายนอกหรือผลการค้นหา เพื่อสร้างคำตอบที่อิงข้อเท็จจริง ถือเป็นวิธีหลักในการลด Hallucination

การทดสอบ E2E (End-to-End Testing) คือวิธีการทดสอบที่จำลองการกระทำของผู้ใช้เป็นจุดเริ่มต้น แล้วส่งผ่านระบบทั้งหมดผ่านทาง Browser หรือ API เพื่อตรวจสอบว่าได้ผลลัพธ์ตามที่คาดหวังหรือไม่

การทดสอบการยอมรับ (Acceptance Test) คือวิธีการทดสอบที่ใช้ตรวจสอบว่าฟีเจอร์ที่พัฒนาขึ้นนั้นตรงตามความต้องการทางธุรกิจและ User Story หรือไม่ โดยพิจารณาจากมุมมองของ Product Owner และ Stakeholder

วิธีการประเมินที่ทดสอบช่องโหว่ของระบบ AI อย่างเป็นระบบจากมุมมองของผู้โจมตี เพื่อระบุความเสี่ยงด้านความปลอดภัยล่วงหน้า

การทดสอบเชิงฟังก์ชัน (Feature Test) คือวิธีการทดสอบที่ตรวจสอบพฤติกรรมของระบบในระดับฟังก์ชันหรือ Use Case ที่เฉพาะเจาะจง โดยครอบคลุมขอบเขตที่กว้างกว่าการทดสอบแบบ Unit Test และมุ่งยืนยันว่าโมดูลหลายตัวทำงานร่วมกันได้อย่างถูกต้อง

การทดสอบแบบ Unit Test คือวิธีการทดสอบที่ตรวจสอบหน่วยย่อยที่สุดของโปรแกรม เช่น ฟังก์ชันหรือเมธอด เป็นรายการ โดยแทนที่การพึ่งพาภายนอกด้วย Mock เพื่อให้สามารถตรวจสอบเฉพาะ Logic ที่ต้องการได้อย่างรวดเร็ว

การบำรุงรักษาเชิงพยากรณ์ (Predictive Maintenance) คือวิธีการที่ใช้ AI วิเคราะห์ข้อมูลเซ็นเซอร์และบันทึกการทำงาน เพื่อคาดการณ์ความเสียหายของอุปกรณ์ล่วงหน้าและวางแผนการซ่อมบำรุง

ฮาลูซิเนชัน (Hallucination) คือปรากฏการณ์ที่ AI model สร้างข้อมูลที่ไม่มีข้อเท็จจริงรองรับ โดยนำเสนอราวกับว่าเป็นข้อมูลที่ถูกต้อง ซึ่งมีสาเหตุมาจากกลไกที่ LLM ใช้ในการสร้างข้อความที่ "น่าเชื่อถือ" จากรูปแบบของข้อมูลที่ใช้ในการเรียนรู้ และถือว่าเป็นเรื่องยากที่จะกำจัดออกไปได้อย่างสมบูรณ์

กลไกที่ควบคุมการกระจายงาน การจัดการสถานะ และ흐름การประสานงานของ AI Agent หลายตัว

การปรับขนาดการประมวลผลในช่วง Inference (Inference-Time Scaling) คือวิธีการที่เพิ่มหรือลดปริมาณการคำนวณในช่วง Inference ของโมเดลอย่างพลวัต โดยใช้ "ขั้นตอนการคิด" มากขึ้นสำหรับปัญหาที่ซับซ้อน และตอบทันทีสำหรับปัญหาที่ง่าย

ไฟน์-ทูนนิ่ง (Fine-Tuning) หมายถึงกระบวนการนำข้อมูลการเรียนรู้เพิ่มเติมมาใช้กับโมเดลแมชชีนเลิร์นนิงที่ผ่านการ Pre-Training มาแล้ว เพื่อปรับให้เหมาะสมกับงานหรือโดเมนเฉพาะ

การสำรวจระยะไกล (Remote Sensing) คือ เทคโนโลยีที่ใช้ดาวเทียม อากาศยาน หรือโดรนที่ติดตั้งเซนเซอร์ เพื่อวัดการสะท้อนและการแผ่รังสีคลื่นแม่เหล็กไฟฟ้าจากวัตถุเป้าหมายโดยไม่ต้องสัมผัสโดยตรง แล้วนำข้อมูลที่ได้มาใช้รับและวิเคราะห์สภาพพื้นผิวโลกและชั้นบรรยากาศ

การอนุมานแบบหลายขั้นตอน (Multi-step Reasoning) คือวิธีการอนุมานที่ LLM ไม่ได้สร้างคำตอบในครั้งเดียว แต่ผ่านขั้นตอนกลางหลายขั้นตอน (เช่น การสร้างคำถามย่อย การตรวจสอบคำตอบบางส่วน การดึงข้อมูลเพิ่มเติม เป็นต้น) เพื่อให้ได้คำตอบสุดท้าย

ขนาด Chunk หมายถึง ขนาดของหน่วยการแบ่ง (จำนวน Token หรือจำนวนตัวอักษร) ที่ใช้ในการแบ่งเอกสารเพื่อจัดเก็บลงใน Vector Store ภายใน RAG Pipeline ถือเป็น Parameter สำคัญที่ส่งผลโดยตรงต่อความแม่นยำในการค้นหาและคุณภาพของคำตอบ

ข้อมูลสำหรับการฝึกอบรมที่สร้างขึ้นโดย AI ใช้เพื่อชดเชยการขาดแคลนข้อมูลจริง และนำไปใช้ในการเรียนรู้และประเมินผลโมเดลในขณะที่ปกป้องความเป็นส่วนตัว

วิธีการออกแบบที่แยกระบบ AI และโครงสร้างพื้นฐานการประมวลผลข้อมูลออกจากกันทั้งในเชิงกายภาพและเชิงตรรกะ เพื่อขจัดความเสี่ยงการรั่วไหลของข้อมูลส่วนบุคคลในเชิงโครงสร้าง โดยมีตัวอย่างที่เป็นแบบฉบับ ได้แก่ การแยก Tenant และการดำเนินงานแบบ On-premises

AI แชทบอท คือซอฟต์แวร์ที่ใช้การประมวลผลภาษาธรรมชาติ (NLP) และ LLM เพื่อดำเนินการสนทนากับมนุษย์โดยอัตโนมัติ แตกต่างจากแชทบอทแบบ Rule-based ทั่วไป ตรงที่สามารถเข้าใจบริบทและตอบสนองต่อคำถามที่ไม่ได้กำหนดไว้ล่วงหน้าได้

ฐานข้อมูลเวกเตอร์ (Vector Database) คือฐานข้อมูลที่จัดเก็บข้อความและรูปภาพในรูปแบบเวกเตอร์ตัวเลข (Embedding) และให้บริการค้นหาความเร็วสูงตามความคล้ายคลึงเชิงความหมาย

Agent Skills คือชุดคำสั่งที่นำกลับมาใช้ซ้ำได้ซึ่งถูกกำหนดขึ้นเพื่อให้ AI Agent ดำเนินงานหรือความเชี่ยวชาญเฉพาะด้าน และทำหน้าที่เป็นหน่วยโมดูลที่ขยายขีดความสามารถของ Agent

Token คือหน่วยที่เล็กที่สุดที่ LLM ใช้ในการประมวลผลข้อความ โดยไม่ได้หมายถึงคำทั้งคำเสมอไป แต่ยังรวมถึงส่วนหนึ่งของคำ สัญลักษณ์ หรือช่องว่าง ซึ่งเป็นผลจากการแบ่งข้อความตามคลังคำศัพท์ (Vocabulary) ของโมเดล

ธรรมาภิบาล AI คือนโยบาย กระบวนการ และกลไกการกำกับดูแลขององค์กรที่รับรองจริยธรรม ความโปร่งใส และความรับผิดชอบในการพัฒนาและดำเนินการระบบ AI

ปัญหา N+1 Query คือ anti-pattern ด้านประสิทธิภาพที่เกิดขึ้นเมื่อดึงข้อมูลรายการด้วย query ครั้งเดียว แล้วตามด้วยการ query แยกทีละรายการเพื่อดึงข้อมูลที่เกี่ยวข้องของแต่ละ record ส่งผลให้เกิดการเข้าถึงฐานข้อมูลทั้งหมด N+1 ครั้ง

AI Agent อิสระที่รับบทบาทหน้าที่งานเฉพาะด้านและดำเนินงานอย่างต่อเนื่องเช่นเดียวกับพนักงานมนุษย์ จุดที่แตกต่างจาก AI Assistant แบบดั้งเดิมคือมีขอบเขตความรับผิดชอบในฐานะตำแหน่งงาน ไม่ใช่เพียงการตอบสนองต่อคำสั่งแบบครั้งต่อครั้ง

Sparse Model (สปาร์สโมเดล) คือชื่อเรียกรวมของสถาปัตยกรรมเครือข่ายประสาทเทียมที่ในระหว่างการ Inference จะเปิดใช้งานเพียงบางส่วนของพารามิเตอร์ทั้งหมดของโมเดล ไม่ใช่ทุกพารามิเตอร์ ตัวอย่างที่เป็นที่รู้จักได้แก่ MoE (Mixture of Experts) ซึ่งใช้กลยุทธ์การ Scaling ที่แตกต่างจาก Dense Model กล่าวคือสามารถเพิ่มจำนวนพารามิเตอร์รวมได้ในขณะที่ยังควบคุมต้นทุนการ Inference ให้อยู่ในระดับต่ำ

โอเพนเวทโมเดล (Open-weight model) คือโมเดลภาษาที่เปิดเผยค่าน้ำหนัก (พารามิเตอร์) ของโมเดลที่ผ่านการเทรนแล้วต่อสาธารณะ ผู้ใช้สามารถดาวน์โหลดและนำไปใช้งานได้อย่างอิสระ ทั้งในการ Inference และ Fine-tuning

Base Model (Foundation Model) คือโมเดล AI อเนกประสงค์ที่ผ่านการ Pre-training ด้วยชุดข้อมูลขนาดใหญ่ โดยไม่ได้เฉพาะเจาะจงสำหรับงานใดงานหนึ่ง แต่ทำหน้าที่เป็น "รากฐาน" ที่สามารถปรับใช้กับงานที่หลากหลายได้ผ่าน Fine-tuning หรือ Prompt Engineering

ระบบมัลติเอเจนต์ (Multi-Agent System) คือสถาปัตยกรรมที่ AI เอเจนต์หลายตัวแบ่งบทบาทและประสานงานกันเพื่อบรรลุเป้าหมายร่วม

กลไกความปลอดภัยที่ตรวจสอบอินพุตและเอาต์พุตของ LLM เพื่อตรวจจับและบล็อกเนื้อหาที่เป็นอันตราย การรั่วไหลของข้อมูลที่เป็นความลับ และการละเมิดนโยบายโดยอัตโนมัติ

Gherkin記法 (สัญกรณ์ Gherkin) คือรูปแบบโครงสร้างที่ใช้อธิบายพฤติกรรมของซอฟต์แวร์ในลักษณะภาษาธรรมชาติ โดยแบ่งออกเป็น 3 ขั้นตอน ได้แก่ Given (เงื่อนไขเริ่มต้น), When (การกระทำ) และ Then (ผลลัพธ์) สัญกรณ์นี้ถูกใช้อย่างแพร่หลายในฐานะรูปแบบมาตรฐานของไฟล์ .feature ที่เครื่องมือทดสอบอัตโนมัติ Cucumber ใช้อ่านข้อมูล

Context Engineering คือสาขาวิชาที่ว่าด้วยการออกแบบและปรับแต่งบริบท (Context) ที่ป้อนให้กับ AI Model อย่างเป็นระบบ ไม่ว่าจะเป็นโครงสร้างของ Codebase, ประวัติ Commit, เจตนาในการออกแบบ (Design Intent) และความรู้เฉพาะด้าน (Domain Knowledge)

พรอมต์เอนจิเนียริง (Prompt Engineering) คือเทคนิคการออกแบบโครงสร้าง การแสดงออก และบริบทของข้อความนำเข้า (พรอมต์) เพื่อดึงผลลัพธ์ที่ต้องการออกมาจาก LLM (Large Language Model — โมเดลภาษาขนาดใหญ่)

Vibe Coding คือรูปแบบการพัฒนาซอฟต์แวร์ที่นักพัฒนาสื่อสารความต้องการด้วยภาษาธรรมชาติ และให้ AI เป็นผู้รับผิดชอบในการสร้างและแก้ไขโค้ด โดยได้รับการเลือกให้เป็น "Word of the Year" ประจำปี 2025

AI Agent คือระบบ AI ที่วางแผนและดำเนินงานอย่างอิสระเพื่อบรรลุเป้าหมายที่กำหนด โดยสามารถเรียกใช้ external tools ต่างๆ ในระหว่างการทำงานได้

สถาปัตยกรรมที่รันการอนุมานด้วย AI บนอุปกรณ์โดยตรง แทนที่จะใช้ Cloud ช่วยให้มี latency ต่ำ ปกป้องความเป็นส่วนตัว และทำงานได้แบบออฟไลน์

เอ็มเบดดิง (Embedding) คือเทคนิคที่แปลงข้อมูลไม่มีโครงสร้าง เช่น ข้อความ รูปภาพ และเสียง ให้เป็นเวกเตอร์ตัวเลขความยาวคงที่ โดยยังรักษาความสัมพันธ์เชิงความหมาย

แอมเบียนต์ AI (Ambient AI) หมายถึงระบบ AI ที่ฝังตัวอยู่ในสภาพแวดล้อมของผู้ใช้อย่างถาวร โดยสามารถตรวจสอบข้อมูลจากเซนเซอร์และเหตุการณ์ต่าง ๆ รวมถึงดำเนินการเชิงรุกได้โดยไม่ต้องรอคำสั่งที่ชัดเจนจากผู้ใช้

OpenClaw คือเฟรมเวิร์ก AI Agent แบบโอเพนซอร์สสำหรับการใช้งานส่วนบุคคลที่ทำงานในสภาพแวดล้อมภายในเครื่อง มีความสามารถด้านหน่วยความจำระยะยาว การดำเนินงานอัตโนมัติ และการสร้างทักษะด้วยตนเอง โดยได้รับดาวบน GitHub มากกว่า 160,000 ดาว ในปี 2026
