Deepfake คือเทคโนโลยีที่ใช้การเรียนรู้เชิงลึก (Deep Learning) เพื่อปลอมแปลงหรือสังเคราะห์ใบหน้า เสียง และวิดีโอของบุคคลให้มีความสมจริง ซึ่งถือเป็นภัยคุกคามทางไซเบอร์ที่น่ากังวล เช่น การหลอกลวงแบบฟิชชิง (Phishing) และการสวมรอยเป็นบุคคลอื่น
Deepfake คือเทคโนโลยีที่ใช้การเรียนรู้เชิงลึก (Deep Learning) ในการปลอมแปลงหรือสังเคราะห์ใบหน้า เสียง และวิดีโอของบุคคลให้มีความสมจริง ซึ่งถือเป็นปัญหาและภัยคุกคามทางไซเบอร์ เช่น การหลอกลวงแบบฟิชชิง (Phishing) และการโจมตีด้วยการสวมรอย (Impersonation Attack)
หัวใจสำคัญของ Deepfake คือสถาปัตยกรรมการเรียนรู้เชิงลึก เช่น GAN (Generative Adversarial Networks) และ Autoencoder โดย GAN จะใช้โมเดลสองตัวคือ "ตัวสร้าง" (Generator) และ "ตัวจำแนก" (Discriminator) มาแข่งขันกันเพื่อสร้างวิดีโอปลอมที่แนบเนียนจนแยกไม่ออกจากของจริง ไม่เพียงแต่การสลับใบหน้า (Face Swap) เท่านั้น แต่ยังสามารถสังเคราะห์เสียงให้ตรงกับการขยับปาก รวมถึงควบคุมการแสดงออกทางสีหน้าและสายตาได้อีกด้วย ในช่วงไม่กี่ปีที่ผ่านมา ด้วยวิวัฒนาการที่รวดเร็วของ Generative AI ทำให้ผู้ใช้งานทั่วไปสามารถเข้าถึงสภาพแวดล้อมที่สร้างเนื้อหาคุณภาพสูงได้ในต้นทุนที่ต่ำ
ในด้านเสียง มีวิธีการที่เรียกว่า "Voice Cloning" ซึ่งเป็นที่แพร่หลาย โดยสามารถจำลองเสียงของบุคคลเฉพาะเจาะจงได้จากตัวอย่างเสียงเพียงไม่กี่สิบวินาที การรวมวิดีโอและเสียงเข้าด้วยกันทำให้สามารถสร้างวิดีโอที่ดูเหมือนผู้บริหารหรือนักการเมืองตัวจริงกำลังพูดในสิ่งที่พวกเขาไม่ได้พูดจริงๆ ซึ่งมีรายงานความเสียหายจากการฉ้อโกงเกิดขึ้นจริงแล้ว
เหตุผลที่ Deepfake ถูกมองว่าเป็นอันตรายอย่างยิ่งคือการ ทำลายรูปแบบการยืนยันตัวตนและความน่าเชื่อถือแบบเดิมจนถึงรากฐาน
ตามแนวคิดของ Zero Trust Network Access (ZTNA) หลักการที่ว่า "อย่าเชื่อในสิ่งที่เห็น" จึงมีความสำคัญยิ่งขึ้น ในแง่ของ AI Governance นั้น Deepfake ถูกกำหนดให้เป็นเป้าหมายของภาระหน้าที่ด้านความโปร่งใสภายใต้ EU AI Act ซึ่งกำหนดให้ต้องมีการเปิดเผยข้อมูลหรือติดป้ายกำกับว่าเป็นเนื้อหาที่สร้างจาก Deepfake เพื่อให้สอดคล้องกับข้อกำหนดทางกฎหมาย
การวิจัยเกี่ยวกับ โมเดลการตรวจจับทางนิติวิทยาศาสตร์ (Forensic Detection Models) กำลังก้าวหน้าเพื่อใช้เป็นเครื่องมือต่อต้าน Deepfake โดยแนวทางหลักคือการใช้ Machine Learning ตรวจจับลักษณะเฉพาะที่ละเอียดอ่อน เช่น รูปแบบการกะพริบตา พื้นผิวของผิวหนัง และความไม่เป็นธรรมชาติของการสะท้อนแสง อย่างไรก็ตาม เทคโนโลยีการสร้างและการตรวจจับกำลังอยู่ในสภาวะ "แมวจับหนู" ซึ่งมีความเสี่ยงที่ความแม่นยำของฝั่งผู้สร้างจะเหนือกว่าฝั่งผู้ตรวจจับอยู่เสมอ
มาตรการรับมือในระดับองค์กรที่ถือว่ามีประสิทธิภาพ ได้แก่:
การนำแนวคิด HITL (Human-in-the-Loop) มาบูรณาการเข้ากับกระบวนการขององค์กร โดยออกแบบกลไกให้มนุษย์เข้ามาตัดสินใจในเนื้อหาที่ AI สร้างขึ้น ถือเป็นแนวทางที่เป็นจริงในการลดความเสียหายให้เหลือน้อยที่สุด
ด้วยคุณภาพที่เพิ่มขึ้นของ Video Generation AI คาดการณ์ว่าภัยคุกคามจาก Deepfake จะขยายตัวมากขึ้น ในขณะเดียวกัน การสร้างมาตรฐานสากลสำหรับการรับรองเนื้อหา (เช่น C2PA) และการเข้มงวดในข้อกำหนดการใช้งานโดยผู้ให้บริการ Generative AI ก็กำลังดำเนินไป ซึ่งขณะนี้เรากำลังเข้าสู่ช่วงเวลาที่จำเป็นต้องใช้มาตรการรับมือทั้งในระดับเทคโนโลยี กฎระเบียบ และทักษะความเข้าใจ (Literacy) ควบคู่กันไป



ข้อมูลสำหรับการฝึกอบรมที่สร้างขึ้นโดย AI ใช้เพื่อชดเชยการขาดแคลนข้อมูลจริง และนำไปใช้ในการเรียนรู้และประเมินผลโมเดลในขณะที่ปกป้องความเป็นส่วนตัว

Agent Skills คือชุดคำสั่งที่นำกลับมาใช้ซ้ำได้ซึ่งถูกกำหนดขึ้นเพื่อให้ AI Agent ดำเนินงานหรือความเชี่ยวชาญเฉพาะด้าน และทำหน้าที่เป็นหน่วยโมดูลที่ขยายขีดความสามารถของ Agent

Shadow AI หมายถึง เครื่องมือและบริการ AI ที่พนักงานนำมาใช้ในการทำงานโดยไม่ได้รับการอนุมัติจากฝ่าย IT หรือผู้บริหารขององค์กร ซึ่งมีความเสี่ยงต่อการรั่วไหลของข้อมูลและการละเมิดข้อกำหนดด้านการปฏิบัติตามกฎระเบียบ (Compliance)

เอ็มเบดดิง (Embedding) คือเทคนิคที่แปลงข้อมูลไม่มีโครงสร้าง เช่น ข้อความ รูปภาพ และเสียง ให้เป็นเวกเตอร์ตัวเลขความยาวคงที่ โดยยังรักษาความสัมพันธ์เชิงความหมาย

AI Agent คือระบบ AI ที่วางแผนและดำเนินงานอย่างอิสระเพื่อบรรลุเป้าหมายที่กำหนด โดยสามารถเรียกใช้ external tools ต่างๆ ในระหว่างการทำงานได้