พรอมต์เอนจิเนียริง (Prompt Engineering) คือเทคนิคการออกแบบโครงสร้าง การแสดงออก และบริบทของข้อความนำเข้า (พรอมต์) เพื่อดึงผลลัพธ์ที่ต้องการออกมาจาก LLM (Large Language Model — โมเดลภาษาขนาดใหญ่)
LLM ทำงานโดยการทำนายข้อความที่ต่อเนื่องจาก input ที่ได้รับ แม้จะเป็นคำถามเดียวกัน แต่การระบุเงื่อนไขเบื้องต้นหรือรูปแบบ output หรือไม่นั้น ส่งผลอย่างมากต่อความแม่นยำและประโยชน์ของคำตอบ เพียงแค่ระบุว่า "ให้แสดง 3 แนวทางในรูปแบบ bullet point เป็นภาษาไทย" ก็สามารถได้รับคำตอบที่มีประโยชน์ในทางปฏิบัติมากกว่าการถามอย่าง막막ไม่มีทิศทางอย่างเห็นได้ชัด
Zero-shot / Few-shot: การให้คำสั่งโดยไม่มีตัวอย่างเรียกว่า Zero-shot ส่วนการแนบตัวอย่างที่เป็นรูปธรรม 1 ถึงหลายรายการเรียกว่า Few-shot สำหรับงานจำแนกประเภทหรือการระบุรูปแบบ Few-shot มีแนวโน้มให้ผลที่เสถียรกว่า
Chain-of-Thought (CoT): เทคนิคการสั่งให้แสดงกระบวนการอนุมานอย่างชัดเจน โดยใช้คำสั่งเช่น "คิดทีละขั้นตอน" เป็นที่ทราบกันว่าช่วยเพิ่มอัตราการตอบถูกต้องในโจทย์คณิตศาสตร์และปัญหาเชิงตรรกะ
Role Prompting: การระบุบทบาท เช่น "คุณคือ Senior Engineer" เพื่อควบคุม tone และความเชี่ยวชาญของ output
ราวปี 2025 เป็นต้นมา นอกจากการออกแบบ prompt แบบครั้งเดียวแล้ว มุมมองเกี่ยวกับวิธีการจัดโครงสร้างข้อมูล (context) ที่ส่งให้กับระบบ AI โดยรวมก็เริ่มได้รับความสำคัญมากขึ้น สาขานี้เรียกว่า Context Engineering ซึ่งครอบคลุมถึงการฉีดความรู้จากภายนอกด้วย RAG การจัดโครงสร้างนิยาม tool และการจัดการประวัติการสนทนา Prompt Engineering กำลังอยู่ในตำแหน่งที่เป็นเพียงองค์ประกอบหนึ่งภายในนั้น
อย่างไรก็ตาม หลักการพื้นฐานของ prompt ได้แก่ คำสั่งที่ชัดเจน การยกตัวอย่างที่เหมาะสม และการระบุรูปแบบ output ล้วนเป็นรากฐานของ Context Engineering เช่นกัน การออกแบบระบบโดยรวมโดยไม่เข้าใจพื้นฐานนั้นเป็นสิ่งที่ทำไม่ได้


เทคนิคการโจมตีที่ใช้อินพุตที่เป็นอันตรายเพื่อควบคุมพฤติกรรมของ LLM ให้เบี่ยงเบนไปจากที่ตั้งใจไว้ ถูกจัดให้เป็นความเสี่ยงสูงสุดใน OWASP LLM Top 10

LLM (Large Language Model) คือชื่อเรียกรวมของโมเดลเครือข่ายประสาทเทียมที่มีพารามิเตอร์ตั้งแต่หลายพันล้านถึงหลายล้านล้านตัว ซึ่งผ่านการเรียนรู้ล่วงหน้าด้วยข้อมูลข้อความจำนวนมหาศาล และสามารถทำความเข้าใจและสร้างภาษาธรรมชาติได้อย่างแม่นยำสูง

Dense Model (โมเดลแบบเชื่อมต่อหนาแน่น) คือสถาปัตยกรรมเครือข่ายประสาทเทียมที่ใช้พารามิเตอร์ทั้งหมดของโมเดลในการคำนวณระหว่างการอนุมาน ต่างจาก MoE (Mixture of Experts) ที่เปิดใช้งานเฉพาะบางส่วนของ Expert Dense Model จะให้ weight ทั้งหมดมีส่วนร่วมในการประมวลผลเสมอ ไม่ว่า input จะเป็นอะไรก็ตาม


Harness Engineering คืออะไร? วิธีการออกแบบเชิงโครงสร้างเพื่อป้องกันข้อผิดพลาดของ AI Agent