Harness Engineering คือวิธีการออกแบบข้อจำกัดเชิงโครงสร้าง เช่น prompt, tool definition และ CI/CD เพื่อป้องกันการทำงานผิดพลาดของ AI agent
Harness Engineering คือวิธีการออกแบบข้อจำกัดเชิงโครงสร้าง เช่น prompt, การกำหนด tool, CI/CD และอื่น ๆ เพื่อป้องกันการทำงานผิดพลาดของ AI agent คำว่า "harness" มีที่มาจากอุปกรณ์บังเหียนม้า (เครื่องมือที่ใช้ควบคุมม้า) และหมายถึงแนวคิดในการควบคุมพลังงานอันทรงพลังให้ปลอดภัย ในยุคปัจจุบันที่ AI agent สามารถดำเนินงานได้อย่างอิสระ การออกแบบ "โครงสร้างที่ควบคุม" ความสามารถดังกล่าวได้กลายเป็นประเด็นหลักที่กำหนดความน่าเชื่อถือของระบบโดยรวม
AI agent ดำเนินการที่ส่งผลกระทบต่อโลกจริง เช่น การจัดการ external API, การอ่านเขียนไฟล์, และการรันโค้ด ผ่านToolCalling (Function Calling) และmulti-agent system หากprompt engineering แบบดั้งเดิมคือเทคนิคที่เพิ่มประสิทธิภาพ "วิธีการสื่อสาร" แล้ว Harness Engineering ก็คือเทคนิคที่ออกแบบโครงสร้างของ "สิ่งที่อนุญาต และสิ่งที่ห้าม" นั่นเอง
ยิ่ง agent ทำงานอย่างอิสระมากเท่าใด ความเสี่ยงของHallucination และPrompt Injection ก็ยิ่งเพิ่มขึ้นเท่านั้น ปัญหาเหล่านี้ไม่สามารถแก้ไขได้ด้วยการปรับ prompt เพียงครั้งเดียว แต่จำเป็นต้องฝังข้อจำกัดไว้ในระดับ system architecture
Harness Engineering ประกอบด้วยการออกแบบที่ครอบคลุมหลาย layer ดังต่อไปนี้
ในขณะที่ Context Engineering เพิ่มประสิทธิภาพคุณภาพและปริมาณของข้อมูลที่ส่งให้ LLM นั้น Harness Engineering เปรียบได้กับงานการกำหนดเส้นแบ่งระหว่างสิ่งที่ agent "ทำได้" และ "ทำไม่ได้" แนวคิดนี้มีความสอดคล้องสูงกับแนวคิดShift Left โดยแทนที่จะแก้ไขหลังจากเกิดปัญหา จะฝังข้อจำกัดไว้ตั้งแต่ขั้นตอนการออกแบบเพื่อกำจัดความเสี่ยงล่วงหน้า
ในกรณีที่ใช้งาน coding agent อย่าง Claude Code ในสภาพแวดล้อม production การกำหนด policy อย่างชัดเจนว่าจะอนุญาตให้เข้าถึง directory ใด และห้ามรันคำสั่งใด ถือเป็นตัวอย่างการปฏิบัติที่เป็นแบบฉบับของ Harness Engineering นอกจากนี้ แนวคิดการออกแบบนี้ยังจำเป็นอย่างยิ่งสำหรับการรักษาความสอดคล้องกับAI governance และมาตรฐานความปลอดภัยของOWASP
Harness Engineering ไม่ใช่สิ่งที่ครอบคลุมทุกอย่าง หากกำหนดข้อจำกัดเข้มงวดเกินไป ความเป็นประโยชน์ของ agent จะลดลง ในทางกลับกัน หากหลวมเกินไป ก็อาจนำไปสู่พฤติกรรมที่ไม่คาดคิดในลักษณะShadow AI การค้นหาสมดุลที่เหมาะสมนั้น การตรวจสอบแบบ iterative ผ่านPoC (Proof of Concept) และการทดสอบโจมตีโดยเจตนาผ่านAI Red Teaming มีประสิทธิภาพอย่างยิ่ง
ยิ่ง capability ของ agent มีความซับซ้อนสูงขึ้นเท่าใด การออกแบบ harness ก็ยิ่งต้องพัฒนาตามไปด้วยเท่านั้น สิ่งนี้ไม่ใช่เอกสารที่เสร็จสมบูรณ์แล้วจบ แต่ควรได้รับการปฏิบัติในฐานะ engineering asset ที่ได้รับการปรับปรุงอย่างต่อเนื่องควบคู่ไปกับการดำเนินงานของ agent



"On the Loop" คือรูปแบบการทำงานร่วมกันที่มุ่งเน้นการปรับปรุง harness (สภาพแวดล้อมการทำงาน ข้อจำกัด และเครื่องมือ) มากกว่าการตรวจสอบผลลัพธ์รายชิ้นของ AI agent และถือเป็นบทบาทที่แนะนำสำหรับมนุษย์ในการปฏิบัติด้าน harness engineering

Context Engineering คือสาขาวิชาที่ว่าด้วยการออกแบบและปรับแต่งบริบท (Context) ที่ป้อนให้กับ AI Model อย่างเป็นระบบ ไม่ว่าจะเป็นโครงสร้างของ Codebase, ประวัติ Commit, เจตนาในการออกแบบ (Design Intent) และความรู้เฉพาะด้าน (Domain Knowledge)

AI Agent คือระบบ AI ที่วางแผนและดำเนินงานอย่างอิสระเพื่อบรรลุเป้าหมายที่กำหนด โดยสามารถเรียกใช้ external tools ต่างๆ ในระหว่างการทำงานได้

Agentic Flywheel คือวงจรการเติบโตแบบเสริมแรงตัวเอง ซึ่ง AI Agent ดำเนินงานอย่างอิสระ และข้อมูลรวมถึง Feedback ที่ได้จากผลลัพธ์นั้นจะช่วยพัฒนาความแม่นยำและความสามารถในการตัดสินใจของ Agent เอง ส่งผลให้สามารถมอบหมายงานให้รับผิดชอบได้มากขึ้นเรื่อยๆ

การบำรุงรักษาเชิงพยากรณ์ (Predictive Maintenance) คือวิธีการที่ใช้ AI วิเคราะห์ข้อมูลเซ็นเซอร์และบันทึกการทำงาน เพื่อคาดการณ์ความเสียหายของอุปกรณ์ล่วงหน้าและวางแผนการซ่อมบำรุง