Deepfake ແມ່ນເທັກໂນໂລຍີທີ່ໃຊ້ Deep Learning ໃນການປອມແປງ ຫຼື ສັງເຄາະໃບໜ້າ, ສຽງ ແລະ ວິດີໂອຂອງບຸກຄົນໃຫ້ມີຄວາມແນບນຽນ, ເຊິ່ງຖືກຖືວ່າເປັນໄພຂົ່ມຂູ່ທາງດ້ານຄວາມປອດໄພທາງໄຊເບີ ເຊັ່ນ: ການຫຼອກລວງທາງອິນເຕີເນັດ (Phishing) ແລະ ການປອມແປງຕົວຕົນ.
Deepfake ແມ່ນເຕັກໂນໂລຊີທີ່ໃຊ້ການຮຽນຮູ້ແບບເລິກເຊິ່ງ (Deep Learning) ເພື່ອປອມແປງ ຫຼື ສັງເຄາະໃບໜ້າ, ສຽງ, ແລະ ວິດີໂອຂອງບຸກຄົນໃຫ້ມີຄວາມແທ້ຈິງ, ເຊິ່ງຖືກເບິ່ງວ່າເປັນໄພຂົ່ມຂູ່ທາງດ້ານຄວາມປອດໄພທາງໄຊເບີ ເຊັ່ນ: ການຫຼອກລວງແບບຟິດຊິງ (Phishing) ແລະ ການໂຈມຕີແບບສວມຮອຍ (Impersonation Attack).
ຫົວໃຈສຳຄັນຂອງ Deepfake ແມ່ນສະຖາປັດຕະຍະກຳການຮຽນຮູ້ແບບເລິກເຊິ່ງ ເຊັ່ນ: GAN (Generative Adversarial Networks) ແລະ Autoencoder. GAN ໃຊ້ສອງແບບຈຳລອງຄື "Generator" ແລະ "Discriminator" ມາແຂ່ງຂັນກັນ ເພື່ອສ້າງວິດີໂອປອມທີ່ແນບນຽນຈົນບໍ່ສາມາດແຍກອອກຈາກຂອງແທ້ໄດ້. ບໍ່ພຽງແຕ່ການປ່ຽນໃບໜ້າ (Face Swap) ເທົ່ານັ້ນ, ແຕ່ຍັງສາມາດສັງເຄາະສຽງໃຫ້ກົງກັບການເຄື່ອນໄຫວຂອງປາກ, ຄວບຄຸມການສະແດງອອກທາງສີໜ້າ ແລະ ສາຍຕາໄດ້ອີກດ້ວຍ. ໃນຊຸມປີມໍ່ໆມານີ້, ດ້ວຍການພັດທະນາຢ່າງວ່ອງໄວຂອງ Generative AI, ເຮັດໃຫ້ຜູ້ໃຊ້ທົ່ວໄປສາມາດສ້າງເນື້ອຫາທີ່ມີຄຸນນະພາບສູງໄດ້ໃນຕົ້ນທຶນທີ່ຕໍ່າ.
ໃນດ້ານສຽງ, ເຕັກນິກທີ່ເອີ້ນວ່າ "Voice Cloning" ໄດ້ຮັບຄວາມນິຍົມ ເຊິ່ງສາມາດສ້າງສຽງຂອງບຸກຄົນໃດໜຶ່ງຄືນມາໄດ້ຈາກຕົວຢ່າງສຽງພຽງບໍ່ເທົ່າໃດວິນາທີ. ການປະສົມປະສານລະຫວ່າງວິດີໂອ ແລະ ສຽງ ເຮັດໃຫ້ສາມາດສ້າງວິດີໂອທີ່ເບິ່ງຄືວ່າຜູ້ບໍລິຫານ ຫຼື ນັກການເມືອງຕົວຈິງກຳລັງເວົ້າໃນສິ່ງທີ່ພວກເຂົາບໍ່ເຄີຍເວົ້າ, ເຊິ່ງມີລາຍງານຄວາມເສຍຫາຍຈາກການສໍ້ໂກງເກີດຂຶ້ນແລ້ວ.
ເຫດຜົນທີ່ Deepfake ຖືກເບິ່ງວ່າເປັນອັນຕະລາຍໂດຍສະເພາະ ແມ່ນຍ້ອນມັນ ທຳລາຍຮູບແບບການຢືນຢັນຕົວຕົນ ແລະ ຄວາມເຊື່ອໝັ້ນແບບເດີມຢ່າງຮາກຖານ.
ດັ່ງທີ່ແນວຄິດ Zero Trust Network Access (ZTNA) ໄດ້ລະບຸໄວ້, ຫຼັກການທີ່ວ່າ "ຢ່າເຊື່ອໃນສິ່ງທີ່ເຫັນ" ແມ່ນມີຄວາມສຳຄັນຫຼາຍຂຶ້ນ. ໃນມຸມມອງຂອງ AI Governance, Deepfake ຖືກຈັດໃຫ້ເປັນເປົ້າໝາຍຂອງພັນທະດ້ານຄວາມໂປ່ງໃສໃນ EU AI Act, ເຊິ່ງກຳນົດໃຫ້ມີການເປີດເຜີຍ ແລະ ຕິດປ້າຍກຳກັບເນື້ອຫາທີ່ເປັນ Deepfake ເພື່ອຕອບສະໜອງຕໍ່ກົດລະບຽບ.
ການຄົ້ນຄວ້າກ່ຽວກັບ Forensic Detection Models ເພື່ອຕ້ານ Deepfake ກຳລັງມີຄວາມຄືບໜ້າ. ວິທີການຫຼັກໆແມ່ນການໃຊ້ Machine Learning ເພື່ອກວດຈັບລັກສະນະລະອຽດອ່ອນ ເຊັ່ນ: ຮູບແບບການກະພິບຕາ, ຜິວໜັງ, ຫຼື ຄວາມບໍ່ເປັນທຳມະຊາດຂອງການສະທ້ອນແສງ. ຢ່າງໃດກໍຕາມ, ເຕັກໂນໂລຊີການສ້າງ ແລະ ການກວດຈັບກຳລັງຢູ່ໃນສະພາບ "ແມວໄລ່ຈັບໜູ", ເຊິ່ງມີຄວາມສ່ຽງທີ່ຝ່າຍສ້າງຈະພັດທະນາໄດ້ລ້ຳໜ້າຝ່າຍກວດຈັບຢູ່ສະເໝີ.
ມາດຕະການປ້ອງກັນໃນລະດັບອົງກອນທີ່ມີປະສິດທິຜົນປະກອບມີ:
ການນຳເອົາແນວຄິດ HITL (Human-in-the-Loop) ມາປະຍຸກໃຊ້ໃນຂະບວນການຂອງອົງກອນ ເພື່ອໃຫ້ມະນຸດເຂົ້າມາມີສ່ວນຮ່ວມໃນການຕັດສິນໃຈຕໍ່ເນື້ອຫາທີ່ AI ສ້າງຂຶ້ນ ກໍເປັນວິທີການທີ່ແທ້ຈິງໃນການຫຼຸດຜ່ອນຄວາມເສຍຫາຍ.
ດ້ວຍຄຸນນະພາບທີ່ເພີ່ມຂຶ້ນຂອງ Video Generation AI, ໄພຂົ່ມຂູ່ຈາກ Deepfake ຄາດວ່າຈະຂະຫຍາຍຕົວຫຼາຍຂຶ້ນ. ໃນຂະນະດຽວກັນ, ການສ້າງມາດຕະຖານສາກົນສຳລັບການຢືນຢັນເນື້ອຫາ (ເຊັ່ນ: C2PA) ແລະ ການເພີ່ມຄວາມເຂັ້ມງວດໃນເງື່ອນໄຂການໃຊ້ງານຂອງຜູ້ໃຫ້ບໍລິການ Generative AI ກໍກຳລັງດຳເນີນໄປ ເຊິ່ງນຳພາພວກເຮົາເຂົ້າສູ່ຍຸກທີ່ຕ້ອງມີມາດຕະການປ້ອງກັນໃນສາມລະດັບຄື: ເຕັກໂນໂລຊີ, ກົດລະບຽບ, ແລະ ຄວາມຮູ້ເທົ່າທັນ.



Remote Sensing ແມ່ນຄຳສັບລວມທີ່ໃຊ້ເອີ້ນເຕັກໂນໂລຊີທີ່ວັດແທກການສະທ້ອນ ແລະ ການແຜ່ລັງສີຂອງຄື້ນແມ່ເຫຼັກໄຟຟ້າຈາກດາວທຽມ, ອາກາດຍານ, ໂດຣນ ແລະ ອື່ນໆ ທີ່ຕິດຕັ້ງເຊັນເຊີ, ໂດຍບໍ່ຕ້ອງສຳຜັດກັບວັດຖຸໂດຍກົງ, ເພື່ອເກັບກຳ ແລະ ວິເຄາະສະພາບຂອງພື້ນຜິວໂລກ ແລະ ບັນຍາກາດ.

AI chatbot ແມ່ນຊອບແວທີ່ໃຊ້ການປະມວນຜົນພາສາທຳມະຊາດ (NLP) ແລະ LLM ເພື່ອດຳເນີນການສົນທະນາກັບມະນຸດໂດຍອັດຕະໂນມັດ. ແຕກຕ່າງຈາກ chatbot ແບບ rule-based ແບບດັ້ງເດີມ, ຈຸດເດັ່ນຂອງມັນຄືສາມາດເຂົ້າໃຈບໍລິບົດແລະຕອບສະໜອງຕໍ່ຄຳຖາມທີ່ບໍ່ໄດ້ກຳນົດໄວ້ລ່ວງໜ້າໄດ້.

ວິທີການປະເມີນທີ່ທົດສອບຊ່ອງໂຫວ່ຂອງລະບົບ AI ຢ່າງເປັນລະບົບໂດຍໃຊ້ທັດສະນະຂອງຜູ້ໂຈມຕີ ເພື່ອລະບຸຄວາມສ່ຽງດ້ານຄວາມປອດໄພລ່ວງໜ້າ.

AI Agent ແມ່ນລະບົບ AI ທີ່ວາງແຜນຢ່າງອິດສະຫຼະເພື່ອບັນລຸເປົ້າໝາຍທີ່ກຳນົດໃຫ້ ແລະ ດຳເນີນວຽກງານໂດຍການເອີ້ນໃຊ້ເຄື່ອງມືພາຍນອກ.

ວິທີການອອກແບບທີ່ກຳຈັດຄວາມສ່ຽງຂອງການຮົ່ວໄຫຼຂໍ້ມູນສ່ວນຕົວຢ່າງເປັນໂຄງສ້າງ ໂດຍການແຍກລະບົບ AI ແລະໂຄງສ້າງພື້ນຖານການປະມວນຜົນຂໍ້ມູນອອກຈາກກັນທາງດ້ານກາຍຍະພາບ ແລະທາງດ້ານຕາມເຫດຜົນ (Logical). ຕົວຢ່າງທີ່ເປັນຕົວແທນຂອງວິທີນີ້ ໄດ້ແກ່ການແຍກ Tenant ແລະການດຳເນີນງານແບບ On-premises.