วิธีการออกแบบที่แยกระบบ AI และโครงสร้างพื้นฐานการประมวลผลข้อมูลออกจากกันทั้งในเชิงกายภาพและเชิงตรรกะ เพื่อขจัดความเสี่ยงการรั่วไหลของข้อมูลส่วนบุคคลในเชิงโครงสร้าง โดยมีตัวอย่างที่เป็นแบบฉบับ ได้แก่ การแยก Tenant และการดำเนินงานแบบ On-premises
แนวคิด "Privacy by Design" เป็นที่รู้จักกันอย่างแพร่หลายแล้ว นั่นคือหลักการที่ฝังการปกป้องความเป็นส่วนตัวไว้ตั้งแต่ขั้นตอนการออกแบบระบบในระยะเริ่มต้น Privacy by Isolation ถือเป็นแนวทางที่มีความเป็นรูปธรรมและตรงไปตรงมาที่สุดในบรรดาวิธีการนำหลักการดังกล่าวไปปฏิบัติ การแยกข้อมูลและระบบออกจากกันทำให้เกิดสภาวะที่การรั่วไหล "ไม่สามารถเกิดขึ้นได้ในเชิงโครงสร้าง" ตั้งแต่แรก
มาตรการปกป้องความเป็นส่วนตัวแบบดั้งเดิม เช่น การเข้ารหัสและการควบคุมการเข้าถึง ยังคงมีประสิทธิภาพตราบเท่าที่ดำเนินการอย่างถูกต้อง อย่างไรก็ตาม การขจัด Human Factor อย่างสมบูรณ์ ไม่ว่าจะเป็นการตั้งค่าผิดพลาด การขยายสิทธิ์เกินจำเป็น หรือการกระทำที่ไม่สุจริตจากภายใน เป็นเรื่องที่ทำได้ยาก
การแยกส่วนกลายเป็นคำตอบเชิงโครงสร้างสำหรับปัญหานี้ หากข้อมูลอยู่ในพื้นที่ที่แยกออกจากกันทั้งทางกายภาพและทางตรรกะ แม้จะมีการตั้งค่าสิทธิ์การเข้าถึงผิดพลาด ก็ยังไม่สามารถเข้าถึงข้อมูลนั้นได้ ท่ามกลางการบังคับใช้กฎระเบียบที่เข้มงวดขึ้นในหลายประเทศ ทั้ง EU AI Act และ PDPA (พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคลของไทย) สถาปัตยกรรมแบบแยกส่วนยังมีข้อได้เปรียบในแง่ของ "ความสามารถในการพิสูจน์การปฏิบัติตามกฎระเบียบ" อีกด้วย
ในทางปฏิบัติ การแยกส่วนถูกนำไปใช้ใน 3 ระดับความละเอียดหลัก ดังนี้
Tenant Separation — รูปแบบที่พบบ่อยที่สุดในสภาพแวดล้อม SaaS แบ่ง Database Schema หรืออินสแตนซ์แยกตามลูกค้าแต่ละราย และแยกส่วนทางตรรกะด้วย Row Level Security (RLS) หรือ Dedicated Schema ความสมดุลระหว่างประสิทธิภาพด้านต้นทุนและความแข็งแกร่งของการแยกส่วนคือจุดตัดสินใจหลักในการออกแบบ
On-Premises / VPC Separation — สำหรับข้อมูลที่มีความละเอียดอ่อนสูง เช่น เวชระเบียนและธุรกรรมทางการเงิน ระบบจะถูกจำกัดไว้ในสภาพแวดล้อม On-Premises เฉพาะหรือ VPC (Virtual Private Cloud) แทนที่จะใช้โครงสร้างพื้นฐานที่ใช้ร่วมกันบนคลาวด์ การประมวลผลเชิงอนุมานของโมเดล AI ก็ดำเนินการภายในขอบเขตการแยกส่วนเดียวกับข้อมูลด้วย
Edge Processing — ประมวลผลข้อมูลบนอุปกรณ์ในรูปแบบ Edge AI โดยไม่ส่งข้อมูลไปยังคลาวด์ เป็นแนวทางที่มีประสิทธิภาพสำหรับข้อมูลสตรีมที่มีข้อมูลส่วนบุคคล เช่น การวิเคราะห์ภาพจากกล้องและการรู้จำเสียง
การแพร่หลายของ Generative AI ยิ่งทำให้ความสำคัญของการแยกส่วนเพิ่มสูงขึ้น ความเสี่ยงที่ข้อมูลซึ่งถูกป้อนเป็น Prompt ให้กับ LLM จะถูกนำไปใช้ในการฝึกโมเดล รวมถึงความเสี่ยงที่ Context จะปะปนกันระหว่าง Tenant ล้วนเป็นภัยคุกคามรูปแบบใหม่ที่การออกแบบฐานข้อมูลแบบดั้งเดิมไม่ได้คาดการณ์ไว้
ในฐานะแนวปฏิบัติของ Responsible AI มาตรการที่จำเป็น ได้แก่ การแยกสภาพแวดล้อมการประมวลผลเชิงอนุมาน (จัดสรรอินสแตนซ์การประมวลผลเชิงอนุมานเฉพาะให้แต่ละ Tenant) การไม่จัดเก็บข้อมูล Prompt อย่างถาวร และการตรวจสอบขอบเขตการแยกส่วนผ่าน AI Red Teaming



Shadow AI หมายถึง เครื่องมือและบริการ AI ที่พนักงานนำมาใช้ในการทำงานโดยไม่ได้รับการอนุมัติจากฝ่าย IT หรือผู้บริหารขององค์กร ซึ่งมีความเสี่ยงต่อการรั่วไหลของข้อมูลและการละเมิดข้อกำหนดด้านการปฏิบัติตามกฎระเบียบ (Compliance)

ข้อมูลสำหรับการฝึกอบรมที่สร้างขึ้นโดย AI ใช้เพื่อชดเชยการขาดแคลนข้อมูลจริง และนำไปใช้ในการเรียนรู้และประเมินผลโมเดลในขณะที่ปกป้องความเป็นส่วนตัว

สถาปัตยกรรมที่รันการอนุมานด้วย AI บนอุปกรณ์โดยตรง แทนที่จะใช้ Cloud ช่วยให้มี latency ต่ำ ปกป้องความเป็นส่วนตัว และทำงานได้แบบออฟไลน์

Context Engineering คือสาขาวิชาที่ว่าด้วยการออกแบบและปรับแต่งบริบท (Context) ที่ป้อนให้กับ AI Model อย่างเป็นระบบ ไม่ว่าจะเป็นโครงสร้างของ Codebase, ประวัติ Commit, เจตนาในการออกแบบ (Design Intent) และความรู้เฉพาะด้าน (Domain Knowledge)

วิธีการประเมินที่ทดสอบช่องโหว่ของระบบ AI อย่างเป็นระบบจากมุมมองของผู้โจมตี เพื่อระบุความเสี่ยงด้านความปลอดภัยล่วงหน้า