Project Glasswing คือกลุ่มความร่วมมือด้านความปลอดภัยทางไซเบอร์ที่นำโดย Anthropic โดยมีบริษัทเทคโนโลยีชั้นนำอย่าง AWS, Apple, Google, Microsoft และ NVIDIA เข้าร่วม เพื่อใช้โมเดล AI ระดับแนวหน้า (Frontier AI models) ในการสแกนและแก้ไขซอฟต์แวร์ที่สำคัญของโลกเชิงป้องกัน
ผลจากการที่ AI ช่วยเพิ่มขีดความสามารถในการค้นหาช่องโหว่ของซอฟต์แวร์ได้อย่างก้าวกระโดด ทำให้ประเด็นที่ว่าฝ่ายโจมตีหรือฝ่ายป้องกันจะสามารถนำความสามารถนี้ไปใช้ได้ก่อนกัน กลายเป็นปัญหาด้านความมั่นคงปลอดภัย โดย Claude Mythos Preview ที่พัฒนาโดย Anthropic ได้ค้นพบช่องโหว่ Zero-day หลายพันรายการที่ครอบคลุมระบบปฏิบัติการและเว็บเบราว์เซอร์หลักๆ ซึ่งรวมถึงบั๊กที่ทำให้เกิด Remote Crash ใน OpenBSD ที่ซ่อนตัวมานานถึง 27 ปี และบั๊กอายุ 16 ปีใน FFmpeg ที่รอดพ้นจากการทดสอบอัตโนมัติมาแล้วกว่า 5 ล้านครั้ง
การรวมกลุ่ม Project Glasswing จึงถูกจัดตั้งขึ้นเพื่อเป็นกรอบความร่วมมือให้ภาคอุตสาหกรรมนำความสามารถนี้มาใช้ในการป้องกัน แทนที่จะปล่อยให้บริษัทใดบริษัทหนึ่งเป็นผู้ผูกขาดเพียงลำพัง
กลุ่มความร่วมมือนี้ประกอบด้วย AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA และ Palo Alto Networks นอกจากนี้ ยังมีการให้สิทธิ์เข้าถึง Claude Mythos แก่องค์กรดูแลโครงการ Open Source Software (OSS) กว่า 40 แห่งเพื่อวัตถุประสงค์ในการป้องกัน
ความมุ่งมั่นของ Anthropic ยังครอบคลุมถึงด้านเงินทุน โดยประกาศมอบเครดิตการใช้งานโมเดลมูลค่าสูงสุดถึง 100 ล้านดอลลาร์ พร้อมเงินบริจาคโดยตรงอีก 4 ล้านดอลลาร์ให้กับองค์กรด้านความปลอดภัยของ OSS เนื่องจากโครงการ OSS ส่วนใหญ่ดำเนินงานโดยอาสาสมัครและขาดทรัพยากรเพียงพอสำหรับการตรวจสอบความปลอดภัย แม้ว่าประสิทธิผลของเงินทุนนี้จะขึ้นอยู่กับการดำเนินงานในอนาคต แต่นี่ถือเป็นการลงทุนด้านความปลอดภัย AI ในระบบนิเวศ OSS ที่มีขนาดใหญ่ที่สุดเท่าที่เคยมีมา
หัวใจสำคัญของ Glasswing คือ "การสแกนเชิงป้องกัน" (Defensive Scanning) ซึ่งมีวิธีการที่แตกต่างจากเครื่องมือวิเคราะห์แบบ Static Analysis หรือ Fuzzing แบบเดิมอย่างสิ้นเชิง โดย Claude Mythos สามารถอ่านและทำความเข้าใจฐานโค้ดขนาดใหญ่พร้อมบริบท ไม่เพียงแต่ค้นหาช่องโหว่เท่านั้น แต่ยังสามารถสร้างโค้ดโจมตี (Exploit) เพื่อทดสอบจริง และสร้างแพตช์แก้ไขได้อย่างครบวงจร
ในขณะที่หลักการ Shift-left ของ DevSecOps มุ่งเน้นไปที่ "การกำจัดช่องโหว่ตั้งแต่ช่วงเริ่มต้นของการพัฒนา" แต่ Glasswing ใช้แนวทางเสริมด้วยการ "ย้อนกลับไปตรวจสอบโค้ดที่ถูก Deploy ไปแล้วอย่างครอบคลุม" หาก AI Red Teaming คือการจำลองการโจมตีโดยทีมงานที่เป็นมนุษย์ Glasswing ก็เปรียบเสมือนความพยายามของฝ่ายป้องกันในการรันการจำลองการโจมตีด้วย AI อย่างต่อเนื่องและในสเกลขนาดใหญ่
ในเกณฑ์มาตรฐาน CyberGym พบว่า Mythos ทำคะแนนได้ถึง 83.1% (เทียบกับ Opus 4.6 ที่ทำได้ 66.6%) และยังทำคะแนนได้ในระดับสูงสุดใน SWE-bench Prop และ Terminal-Bench 2.0 ซึ่งบ่งชี้ว่าสามารถรับมือกับพื้นผิวการโจมตีที่ยังไม่ถูกจัดหมวดหมู่ได้ ไม่ใช่แค่เพียงช่องโหว่ในหมวดหมู่ที่รู้จักตามการจำแนกของ OWASP เท่านั้น
ช่องโหว่ที่ถูกค้นพบจะถูกจัดการตามหลักการ Responsible Disclosure โดยจะมีการรายงานไปยังโครงการต่างๆ และเปิดเผยรายละเอียดหลังจากยืนยันการติดตั้งแพตช์เรียบร้อยแล้ว ส่วนช่องโหว่ที่ยังไม่ได้แก้ไขจะเปิดเผยเพียงแค่ค่า Hash เท่านั้น การที่ AI เข้ามาเร่งวงจร "ค้นหา→รายงาน→แก้ไข→เปิดเผย" นี้ อาจช่วยลดระยะเวลาความเสี่ยง (Window of Exposure) ของการโจมตีห่วงโซ่อุปทานได้
Anthropic ระบุว่า Glasswing เป็นเพียง "จุดเริ่มต้น" เท่านั้น และกล่าวว่าเมื่อขีดความสามารถของ Frontier AI สูงขึ้นในอนาคต บริษัทผู้พัฒนา ผู้ให้บริการด้านความปลอดภัย ผู้ดูแล OSS และรัฐบาล จำเป็นต้องร่วมมือกันอย่างต่อเนื่องต่อไป



A2A (Agent-to-Agent Protocol) คือโปรโตคอลการสื่อสารที่ช่วยให้ AI Agent ต่างชนิดสามารถค้นหาความสามารถ มอบหมายงาน และซิงโครไนซ์สถานะระหว่างกันได้ โดย Google เปิดตัวในเดือนเมษายน ปี 2025

AES-256 คือ อัลกอริทึมการเข้ารหัสที่มีความแข็งแกร่งสูงสุด โดยใช้ความยาวคีย์ 256 บิต ซึ่งเป็นส่วนหนึ่งของมาตรฐานการเข้ารหัสแบบสมมาตร AES (Advanced Encryption Standard) ที่ได้รับการกำหนดมาตรฐานโดยสถาบันมาตรฐานและเทคโนโลยีแห่งชาติของสหรัฐอเมริกา (NIST)

Agentic RAG คือสถาปัตยกรรมที่ LLM ทำหน้าที่เป็น Agent โดยวนซ้ำกระบวนการสร้าง Query ค้นหา ประเมินผลลัพธ์ และตัดสินใจค้นหาซ้ำอย่างอิสระ เพื่อให้ได้ความแม่นยำของคำตอบที่เหนือกว่า RAG แบบถาม-ตอบทั่วไป

AI ROI คือ ตัวชี้วัดที่ใช้วัดผลลัพธ์เชิงปริมาณของการปรับปรุงประสิทธิภาพการทำงานและการเพิ่มรายได้ที่ได้รับ เทียบกับต้นทุนที่ลงทุนไปในการนำ AI มาใช้งานและดำเนินการ

AI TRiSM คือกรอบแนวคิดโดยรวมที่ใช้เพื่อสร้างความมั่นใจในด้านความน่าเชื่อถือ การจัดการความเสี่ยง และความปลอดภัยของโมเดล AI อย่างเป็นระบบ ซึ่งเป็นแนวคิดที่นำเสนอโดย Gartner