
ສຳລັບບໍລິສັດທີ່ດຳເນີນທຸລະກິດໃນປະເທດໄທພ້ອມກັບນຳໃຊ້ AI, ການປະຕິບັດຕາມກົດໝາຍຄຸ້ມຄອງຂໍ້ມູນສ່ວນຕົວ (PDPA) ແມ່ນສິ່ງທີ່ຫຼີກລ່ຽງບໍ່ໄດ້. ການລະເມີດ PDPA ອາດຖືກລົງໂທດດ້ວຍຄ່າປັບສູງສຸດ 5 ລ້ານບາດ ແລະ ໂທດຈຳຄຸກ, ໂດຍການບັງຄັບໃຊ້ຂອງໜ່ວຍງານກຳກັບດູແລກໍ່ເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ. ບົດຄວາມນີ້ສະໜອງລາຍການກວດສອບ (Checklist) ເພື່ອຊ່ວຍໃຫ້ທ່ານສາມາດດຸ່ນດ່ຽງລະຫວ່າງການນຳໃຊ້ AI ແລະ ການປະຕິບັດຕາມກົດລະບຽບໃນແຕ່ລະຂັ້ນຕອນຂອງການເກັບກຳ, ປະມວນຜົນ ແລະ ເກັບຮັກສາຂໍ້ມູນ. ຂໍໃຫ້ຜູ້ຮັບຜິດຊອບດ້ານລະບົບຂໍ້ມູນຂ່າວສານ, ຝ່າຍກົດໝາຍ ແລະ ຜູ້ບໍລິຫານ ນຳໃຊ້ເນື້ອຫານີ້ເປັນແນວທາງປະຕິບັດໃນການກວດສອບນະໂຍບາຍ AI ຂອງອົງກອນຕົນເອງ.
ຂໍ້ສັງເກດ: ບົດຄວາມນີ້ມີຈຸດປະສົງເພື່ອໃຫ້ຂໍ້ມູນເທົ່ານັ້ນ ແລະ ບໍ່ຖືເປັນຄຳປຶກສາທາງດ້ານກົດໝາຍ. ສຳລັບການດຳເນີນການສະເພາະ, ກະລຸນາປຶກສາທະນາຍຄວາມ ຫຼື ສຳນັກງານກົດໝາຍທີ່ມີຄວາມຊ່ຽວຊານດ້ານກົດໝາຍໄທ.
ສຳລັບບໍລິສັດທີ່ດຳເນີນທຸລະກິດໃນປະເທດໄທພ້ອມກັບນຳໃຊ້ AI ນັ້ນ, ການປະຕິບັດຕາມກົດໝາຍຄຸ້ມຄອງຂໍ້ມູນສ່ວນຕົວ (PDPA) ແມ່ນສິ່ງທີ່ຫຼີກລ່ຽງບໍ່ໄດ້. ການລະເມີດ PDPA ອາດຖືກລົງໂທດດ້ວຍຄ່າປັບສູງສຸດເຖິງ 5 ລ້ານບາດ ແລະ ໂທດຈຳຄຸກ, ໂດຍການບັງຄັບໃຊ້ຂອງໜ່ວຍງານກຳກັບດູແລກໍ່ກຳລັງເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ. ບົດຄວາມນີ້ຈະສະໜອງລາຍການກວດສອບ (checklist) ເພື່ອຊ່ວຍໃຫ້ການນຳໃຊ້ AI ແລະ ການປະຕິບັດຕາມກົດລະບຽບດຳເນີນໄປຄຽງຄູ່ກັນໄດ້ໃນທຸກຂັ້ນຕອນ ທັງການເກັບກຳ, ການປະມວນຜົນ, ແລະ ການເກັບຮັກສາຂໍ້ມູນ. ຂໍໃຫ້ຜູ້ຮັບຜິດຊອບດ້ານລະບົບຂໍ້ມູນຂ່າວສານ, ຝ່າຍກົດໝາຍ, ແລະ ຜູ້ບໍລິຫານ ນຳໃຊ້ເນື້ອຫານີ້ເປັນແນວທາງປະຕິບັດໃນການກວດທານນະໂຍບາຍ AI ຂອງອົງກອນຕົນເອງ.
ຂໍ້ສັງເກດ: ບົດຄວາມນີ້ມີຈຸດປະສົງເພື່ອໃຫ້ຂໍ້ມູນເທົ່ານັ້ນ ແລະ ບໍ່ຖືເປັນຄຳປຶກສາດ້ານກົດໝາຍ. ສຳລັບການດຳເນີນການສະເພາະ, ກະລຸນາປຶກສາທະນາຍຄວາມ ຫຼື ສຳນັກງານກົດໝາຍທີ່ມີຄວາມຊ່ຽວຊານດ້ານກົດໝາຍໄທ.
ກົດໝາຍຄຸ້ມຄອງຂໍ້ມູນສ່ວນຕົວຂອງໄທ (PDPA: Personal Data Protection Act B.E. 2562) ແມ່ນກົດໝາຍທີ່ກຳນົດກົດລະບຽບຄົບຊຸດສຳລັບການເກັບກຳ, ການນຳໃຊ້, ແລະ ການເປີດເຜີຍຂໍ້ມູນສ່ວນຕົວໃນປະເທດໄທ. ເນື່ອງຈາກລະບົບ AI ປະມວນຜົນຂໍ້ມູນສ່ວນຕົວຈຳນວນຫຼວງຫຼາຍ, ຈຶ່ງມີຫຼາຍສະຖານະການທີ່ກ່ຽວຂ້ອງໂດຍກົງກັບບົດບັນຍັດຂອງ PDPA. ໃນທີ່ນີ້, ຈະຂໍສະຫຼຸບຂອບເຂດການບັງຄັບໃຊ້ ແລະ ພັນທະທີ່ຄວນຄຳນຶງເປັນພິເສດໃນການດຳເນີນງານ AI.
ກົດໝາຍຄຸ້ມຄອງຂໍ້ມູນສ່ວນຕົວຂອງໄທ (PDPA: Personal Data Protection Act B.E. 2562) ແມ່ນກົດໝາຍທີ່ກຳນົດກົດລະບຽບຄົບຊຸດກ່ຽວກັບການເກັບກຳ, ການນຳໃຊ້, ແລະ ການເປີດເຜີຍຂໍ້ມູນສ່ວນຕົວໃນປະເທດໄທ. ເນື່ອງຈາກລະບົບ AI ປະມວນຜົນຂໍ້ມູນສ່ວນຕົວຈຳນວນຫຼວງຫຼາຍ, ຈຶ່ງມີຫຼາຍສະຖານະການທີ່ກ່ຽວຂ້ອງໂດຍກົງກັບບົດບັນຍັດຂອງ PDPA. ໃນທີ່ນີ້ຈະຂໍສະຫຼຸບຂອບເຂດການບັງຄັບໃຊ້ ແລະ ພັນທະທີ່ຄວນໃຫ້ຄວາມສຳຄັນເປັນພິເສດໃນການດຳເນີນງານ AI.
PDPA ນຳໃຊ້ກັບທຸກອົງກອນທີ່ເກັບກຳ, ນຳໃຊ້, ຫຼື ເປີດເຜີຍຂໍ້ມູນສ່ວນຕົວພາຍໃນປະເທດໄທ. ເຖິງແມ່ນວ່າຈະເປັນຜູ້ປະກອບການທີ່ຢູ່ນອກປະເທດໄທ, ຫາກໃຫ້ບໍລິການສິນຄ້າ ຫຼື ການບໍລິການແກ່ເຈົ້າຂອງຂໍ້ມູນພາຍໃນປະເທດໄທ, ຫຼື ຕິດຕາມພຶດຕິກຳຂອງຜູ້ໃຊ້ພາຍໃນປະເທດໄທ, ກໍ່ຈະຖືກນຳໃຊ້ກົດໝາຍດັ່ງກ່າວເຊັ່ນກັນ.
ລາຍການກວດສອບເພື່ອຕັດສິນວ່າຖືກນຳໃຊ້ຫຼືບໍ່:
ຫາກຕົກຢູ່ໃນເງື່ອນໄຂໃດໜຶ່ງຂ້າງເທິງ, ມີຄວາມເປັນໄປໄດ້ສູງທີ່ຈະຖືກນຳໃຊ້ PDPA.
ສະຫຼຸບບົດລົງໂທດ:
| ປະເພດ | ເພດານສູງສຸດ |
|---|---|
| ໂທດປັບທາງບໍລິຫານ | ສູງສຸດ 5 ລ້ານບາດ |
| ໂທດປັບທາງອາຍາ | ສູງສຸດ 5 ລ້ານບາດ |
| ໂທດຈຳຄຸກ | ສູງສຸດ 1 ປີ |
| ຄ່າເສຍຫາຍທາງແພ່ງ | ສູງສຸດ 2 ເທົ່າຂອງຄວາມເສຍຫາຍທີ່ເກີດຂຶ້ນຈິງ |
PDPC (ຄະນະກຳມະການຄຸ້ມຄອງຂໍ້ມູນສ່ວນຕົວ) ກຳລັງເພີ່ມທະວີຄວາມເຂັ້ມງວດໃນການບັງຄັບໃຊ້ກົດໝາຍ, ໂດຍສາເຫດຫຼັກທີ່ຖືກດຳເນີນຄະດີໄດ້ແກ່: ການຂາດມາດຕະການຄວາມປອດໄພ, ການບໍ່ຈັດຕັ້ງ DPO (ເຈົ້າໜ້າທີ່ຄຸ້ມຄອງຂໍ້ມູນ), ຂໍ້ບົກຜ່ອງໃນສັນຍາກັບຜູ້ຮັບເໝົາ, ແລະ ຄວາມລ່າຊ້າໃນການລາຍງານເມື່ອເກີດການຮົ່ວໄຫຼຂອງຂໍ້ມູນ. ການຄິດວ່າ "ຄົງຍັງບໍ່ຖືກຈັບໄດ້ຫຼອກ" ແມ່ນແນວຄິດທີ່ໃຊ້ບໍ່ໄດ້ອີກຕໍ່ໄປແລ້ວໃນຍຸກນີ້.
PDPA ນຳໃຊ້ກັບທຸກອົງກອນທີ່ເກັບກຳ, ນຳໃຊ້, ຫຼື ເປີດເຜີຍຂໍ້ມູນສ່ວນຕົວພາຍໃນປະເທດໄທ. ເຖິງແມ່ນວ່າຈະເປັນຜູ້ປະກອບການທີ່ຢູ່ນອກປະເທດໄທ, ຖ້າຫາກສະໜອງສິນຄ້າ ຫຼື ບໍລິການໃຫ້ແກ່ເຈົ້າຂອງຂໍ້ມູນທີ່ຢູ່ໃນປະເທດໄທ, ຫຼື ຕິດຕາມພຶດຕິກຳຂອງຜູ້ທີ່ຢູ່ໃນປະເທດໄທ, ກໍ່ຈະຖືກນຳໃຊ້ດ້ວຍ.
ລາຍການກວດສອບເພື່ອຕັດສິນວ່າຢູ່ໃນຂອບເຂດການນຳໃຊ້ ຫຼື ບໍ່:
ຖ້າຕອບວ່າ "ແມ່ນ" ໃນຂໍ້ໃດຂໍ້ໜຶ່ງຂ້າງເທິງ, ມີຄວາມເປັນໄປໄດ້ສູງທີ່ຈະຢູ່ພາຍໃຕ້ການນຳໃຊ້ຂອງ PDPA.
ສະຫຼຸບໂທດ:
| ປະເພດ | ເພດານສູງສຸດ |
|---|---|
| ໂທດປັບທາງບໍລິຫານ | ສູງສຸດ 5 ລ້ານບາດ |
| ໂທດປັບທາງອາຍາ | ສູງສຸດ 5 ລ້ານບາດ |
| ໂທດຈຳຄຸກ | ສູງສຸດ 1 ປີ |
| ຄ່າເສຍຫາຍທາງແພ່ງ | ສູງສຸດ 2 ເທົ່າຂອງຄວາມເສຍຫາຍທີ່ເກີດຂຶ້ນຈິງ |
PDPC (ຄະນະກຳມະການຄຸ້ມຄອງຂໍ້ມູນສ່ວນຕົວ) ກຳລັງເພີ່ມທະວີຄວາມເຂັ້ມງວດໃນການບັງຄັບໃຊ້, ໂດຍສາເຫດຫຼັກຂອງການດຳເນີນຄະດີໄດ້ແກ່: ການຂາດມາດຕະການຄວາມປອດໄພ, ການບໍ່ຈັດຕັ້ງ DPO (ເຈົ້າໜ້າທີ່ຄຸ້ມຄອງຂໍ້ມູນ), ສັນຍາທີ່ບໍ່ຄົບຖ້ວນກັບຜູ້ຮັບເໝົາ, ແລະ ຄວາມລ່າຊ້າໃນການລາຍງານການຮົ່ວໄຫຼຂອງຂໍ້ມູນ. ທັດສະນະທີ່ວ່າ "ຄົງຈະຍັງບໍ່ຖືກຈັບໄດ້" ນັ້ນ, ບໍ່ສາມາດໃຊ້ໄດ້ອີກຕໍ່ໄປແລ້ວ.
ພັນທະພາຍໃຕ້ PDPA ທີ່ຕ້ອງໃຫ້ຄວາມສົນໃຈເປັນພິເສດໃນການດຳເນີນງານລະບົບ AI ມີທັງໝົດ 6 ຂໍ້ ດັ່ງນີ້:
1. ການຮັບປະກັນຖານທາງກົດໝາຍໃນການເກັບກຳຂໍ້ມູນ
ການເກັບກຳຂໍ້ມູນສ່ວນຕົວຕ້ອງໄດ້ຮັບຄວາມຍິນຍອມ ຫຼື ມີຂໍ້ຍົກເວັ້ນຕາມກົດໝາຍ (ການປະຕິບັດຕາມສັນຍາ, ຜົນປະໂຫຍດທີ່ຊອບທຳ, ພັນທະທາງກົດໝາຍ ແລະ ອື່ນໆ). ໃນກໍລະນີທີ່ນຳໃຊ້ເປັນຂໍ້ມູນຝຶກສອນ AI ກໍ່ຕ້ອງກວດສອບວ່າສອດຄ່ອງກັບຈຸດປະສົງທີ່ກຳນົດໄວ້ໃນເວລາເກັບກຳຫຼືບໍ່.
2. ການລະບຸຈຸດປະສົງ ແລະ ການຈຳກັດການນຳໃຊ້
ຂໍ້ມູນສ່ວນຕົວທີ່ເກັບກຳໄດ້ສາມາດນຳໃຊ້ໄດ້ພາຍໃນຂອບເຂດຈຸດປະສົງທີ່ໄດ້ແຈ້ງໄວ້ລ່ວງໜ້າເທົ່ານັ້ນ. ຫາກ "ການຝຶກສອນໂມເດລ AI" ບໍ່ໄດ້ລວມຢູ່ໃນຈຸດປະສົງການເກັບກຳເບື້ອງຕົ້ນ, ກໍ່ຈຳເປັນຕ້ອງຂໍຄວາມຍິນຍອມເພີ່ມເຕີມ.
3. ພັນທະໃນການແຈ້ງໃຫ້ເຈົ້າຂອງຂໍ້ມູນຊາບ
ຜູ້ຄວບຄຸມຂໍ້ມູນຕ້ອງແຈ້ງຈຸດປະສົງຂອງການເກັບກຳ, ໄລຍະເວລາການເກັບຮັກສາ, ແລະ ສິດຂອງເຈົ້າຂອງຂໍ້ມູນໄວ້ລ່ວງໜ້າ. ຫາກມີການປະມວນຜົນໂດຍ AI ລວມຢູ່ດ້ວຍ, ຄວນລະບຸເລື່ອງດັ່ງກ່າວໄວ້ໃນນະໂຍບາຍຄວາມເປັນສ່ວນຕົວຢ່າງຊັດເຈນ.
4. ການຄຸ້ມຄອງຂໍ້ມູນລະອຽດອ່ອນຢ່າງເຂັ້ມງວດ
ຂໍ້ມູນລະອຽດອ່ອນ ເຊັ່ນ: ເຊື້ອຊາດ, ຊົນເຜົ່າ, ທັດສະນະທາງການເມືອງ, ສາສະໜາ, ຂໍ້ມູນຊີວະມິຕິ, ແລະ ຂໍ້ມູນສຸຂະພາບ ບໍ່ສາມາດເກັບກຳໄດ້ໂດຍບໍ່ມີຄວາມຍິນຍອມຢ່າງຊັດແຈ້ງ. ໃນກໍລະນີທີ່ AI ນຳໃຊ້ການຮັບຮູ້ໃບໜ້າ ຫຼື ການຮັບຮູ້ສຽງ, ມີຄວາມເປັນໄປໄດ້ທີ່ຈະຂັດກັບບົດບັນຍັດນີ້ໂດຍກົງ.
5. ພັນທະທາງສັນຍາກັບຜູ້ປະມວນຜົນຂໍ້ມູນ (ມາດຕາ 40)
ໃນກໍລະນີທີ່ມອບໝາຍການປະມວນຜົນຂໍ້ມູນໃຫ້ຜູ້ໃຫ້ບໍລິການ AI ພາຍນອກ, ຈຳເປັນຕ້ອງມີສັນຍາເປັນລາຍລັກອັກສອນທີ່ລວມເອົາຂໍ້ກຳນົດຂອງ PDPA. ຕ້ອງກຳນົດຂອບເຂດການປະມວນຜົນ, ມາດຕະການຄວາມປອດໄພ, ແລະ ພັນທະໃນການລາຍງານເມື່ອເກີດການຮົ່ວໄຫຼຂອງຂໍ້ມູນໄວ້ຢ່າງຊັດເຈນ.
6. ການຈັດຕັ້ງປະຕິບັດມາດຕະການຄວາມປອດໄພ
ມີພັນທະຕ້ອງດຳເນີນມາດຕະການທາງດ້ານເຕັກນິກ ແລະ ອົງກອນເພື່ອປ້ອງກັນການຮົ່ວໄຫຼ, ການສູນຫາຍ, ແລະ ການເຂົ້າເຖິງຂໍ້ມູນສ່ວນຕົວໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ. ໃນກໍລະນີທີ່ໂມເດລ AI ເກັບຮັກສາຂໍ້ມູນສ່ວນຕົວຈຳນວນຫຼວງຫຼາຍ, ການຈັດຕັ້ງປະຕິບັດການເຂົ້າລະຫັດ ແລະ ການຄວບຄຸມການເຂົ້າເຖິງຖືວ່າເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້.
ພັນທະພາຍໃຕ້ PDPA ທີ່ຕ້ອງໃຫ້ຄວາມສົນໃຈເປັນພິເສດໃນການດຳເນີນງານລະບົບ AI ມີທັງໝົດ 6 ຂໍ້ ດັ່ງນີ້:
1. ການຮັບປະກັນຖານທາງກົດໝາຍໃນການເກັບກຳຂໍ້ມູນ
ການເກັບກຳຂໍ້ມູນສ່ວນຕົວຕ້ອງໄດ້ຮັບຄວາມຍິນຍອມ ຫຼື ມີເຫດຍົກເວັ້ນທີ່ກຳນົດໄວ້ໃນກົດໝາຍ (ການປະຕິບັດສັນຍາ, ຜົນປະໂຫຍດທີ່ຊອບທຳ, ພັນທະທາງກົດໝາຍ ແລະ ອື່ນໆ). ໃນກໍລະນີທີ່ນຳໃຊ້ຂໍ້ມູນດັ່ງກ່າວເປັນຂໍ້ມູນຝຶກສອນ AI ກໍ່ຕ້ອງກວດສອບວ່າສອດຄ່ອງກັບຈຸດປະສົງທີ່ກຳນົດໄວ້ໃນຕອນເກັບກຳຂໍ້ມູນຫຼືບໍ່.
2. ການລະບຸຈຸດປະສົງ ແລະ ການຈຳກັດການນຳໃຊ້
ຂໍ້ມູນສ່ວນຕົວທີ່ເກັບກຳໄດ້ສາມາດນຳໃຊ້ໄດ້ພາຍໃນຂອບເຂດຈຸດປະສົງທີ່ໄດ້ແຈ້ງໄວ້ລ່ວງໜ້າເທົ່ານັ້ນ. ຫາກ "ການຝຶກສອນໂມເດລ AI" ບໍ່ໄດ້ລວມຢູ່ໃນຈຸດປະສົງການເກັບກຳຂໍ້ມູນເບື້ອງຕົ້ນ, ກໍ່ຈຳເປັນຕ້ອງຂໍຄວາມຍິນຍອມເພີ່ມເຕີມ.
3. ພັນທະໃນການແຈ້ງໃຫ້ເຈົ້າຂອງຂໍ້ມູນຊາບ
ຜູ້ຄວບຄຸມຂໍ້ມູນຕ້ອງແຈ້ງຈຸດປະສົງຂອງການເກັບກຳ, ໄລຍະເວລາການເກັບຮັກສາ, ສິດຂອງເຈົ້າຂອງຂໍ້ມູນ ແລະ ຂໍ້ມູນອື່ນໆ ລ່ວງໜ້າ. ໃນກໍລະນີທີ່ມີການປະມວນຜົນໂດຍ AI ກໍ່ຄວນລະບຸໄວ້ຢ່າງຊັດເຈນໃນນະໂຍບາຍຄວາມເປັນສ່ວນຕົວ.
4. ການຄຸ້ມຄອງຂໍ້ມູນອ່ອນໄຫວຢ່າງເຂັ້ມງວດ
ຂໍ້ມູນອ່ອນໄຫວ ເຊັ່ນ: ເຊື້ອຊາດ, ຊົນເຜົ່າ, ທັດສະນະທາງການເມືອງ, ສາສະໜາ, ຂໍ້ມູນຊີວະມິຕິ, ຂໍ້ມູນສຸຂະພາບ ແລະ ອື່ນໆ ບໍ່ສາມາດເກັບກຳໄດ້ໂດຍບໍ່ມີຄວາມຍິນຍອມຢ່າງຊັດເຈນ. ໃນກໍລະນີທີ່ AI ນຳໃຊ້ການຮັບຮູ້ໃບໜ້າ ຫຼື ການຮັບຮູ້ສຽງ, ມີຄວາມເປັນໄປໄດ້ທີ່ຈະຂັດກັບບົດບັນຍັດນີ້ໂດຍກົງ.
5. ພັນທະໃນການທຳສັນຍາກັບຜູ້ປະມວນຜົນຂໍ້ມູນ (ມາດຕາ 40)
ໃນກໍລະນີທີ່ມອບໝາຍການປະມວນຜົນຂໍ້ມູນໃຫ້ຜູ້ໃຫ້ບໍລິການ AI ພາຍນອກ, ຈຳເປັນຕ້ອງມີສັນຍາເປັນລາຍລັກອັກສອນທີ່ລວມເອົາຂໍ້ກຳນົດຂອງ PDPA. ຕ້ອງກຳນົດຂອບເຂດການປະມວນຜົນ, ມາດຕະການຄວາມປອດໄພ ແລະ ພັນທະໃນການລາຍງານເມື່ອເກີດການຮົ່ວໄຫຼຂອງຂໍ້ມູນຢ່າງຊັດເຈນ.
6. ການຈັດຕັ້ງປະຕິບັດມາດຕະການຄວາມປອດໄພ
ມີພັນທະຕ້ອງດຳເນີນມາດຕະການທາງດ້ານເຕັກນິກ ແລະ ອົງກອນເພື່ອປ້ອງກັນການຮົ່ວໄຫຼ, ການສູນຫາຍ ແລະ ການເຂົ້າເຖິງຂໍ້ມູນສ່ວນຕົວໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ. ໃນກໍລະນີທີ່ໂມເດລ AI ເກັບຮັກສາຂໍ້ມູນສ່ວນຕົວຈຳນວນຫຼວງຫຼາຍ, ການຈັດຕັ້ງປະຕິບັດການເຂົ້າລະຫັດ ແລະ ການຄວບຄຸມການເຂົ້າເຖິງຖືວ່າເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້.

ຈຸດເລີ່ມຕົ້ນຂອງໂຄງການ AI ຄືການເກັບກຳຂໍ້ມູນ. ໃນ PDPA ນັ້ນ "ຄວາມຖືກຕ້ອງຕາມກົດໝາຍໃນຂັ້ນຕອນການເກັບກຳ" ຖືເປັນໂຄງສ້າງພື້ນຖານ ຫຼື Infrastructure ຂອງການປະມວນຜົນທັງໝົດທີ່ຕາມມາ, ສະນັ້ນຫາກມີຂໍ້ບົກພ່ອງໃນຂັ້ນຕອນນີ້, ບໍ່ວ່າຈະດຳເນີນມາດຕະການໃດໆໃນຂັ້ນຕອນຕໍ່ໄປ ຄວາມສ່ຽງທາງດ້ານກົດໝາຍກໍຍັງຄົງຄ້າງຢູ່ຕໍ່ໄປ.
ຈຸດເລີ່ມຕົ້ນຂອງໂຄງການ AI ຄືການເກັບກຳຂໍ້ມູນ. ໃນ PDPA ນັ້ນ "ຄວາມຖືກຕ້ອງຕາມກົດໝາຍໃນຂັ້ນຕອນການເກັບກຳ" ຖືເປັນໂຄງສ້າງພື້ນຖານ ຫຼື Infrastructure ຂອງການປະມວນຜົນທັງໝົດທີ່ຕາມມາ, ສະນັ້ນຫາກມີຂໍ້ບົກພ່ອງໃນຂັ້ນຕອນນີ້, ບໍ່ວ່າຈະດຳເນີນມາດຕະການໃດໆໃນຂັ້ນຕອນຕໍ່ໄປ, ຄວາມສ່ຽງທາງດ້ານກົດໝາຍກໍຍັງຄົງຄ້າງຢູ່ຕໍ່ໄປ.
ລາຍການກວດສອບ:
ຕົວຢ່າງທີ່ບໍ່ຄວນເຮັດ (NG): ການຝັງກ່ອງໝາຍຖືກ "ຂ້ອຍຍິນຍອມຕໍ່ການວິເຄາະຂໍ້ມູນລວມທັງການປະມວນຜົນດ້ວຍ AI" ໄວ້ທ້າຍເງື່ອນໄຂການໃຊ້ງານ. ພາຍໃຕ້ PDPA, ການຍິນຍອມຕ້ອງໄດ້ຮັບໃນ "ຮູບແບບທີ່ແຍກອອກຢ່າງຊັດເຈນ", ແລະ ຫາກຂໍ້ກຳນົດການຍິນຍອມຖືກປົນກັບຂໍ້ກຳນົດອື່ນໆ, ມີຄວາມສ່ຽງທີ່ຈະຖືກປະຕິເສດຄວາມຖືກຕ້ອງ.
ລາຍການທີ່ຕ້ອງລະບຸໃນນະໂຍບາຍຄວາມເປັນສ່ວນຕົວ:
ນະໂຍບາຍຄວາມເປັນສ່ວນຕົວຕ້ອງມີຢ່າງໜ້ອຍດັ່ງຕໍ່ໄປນີ້:
ລາຍການກວດສອບ:
ຕົວຢ່າງທີ່ບໍ່ຄວນເຮັດ: ການຝັງກ່ອງໝາຍຖືກ "ຂ້ອຍຍິນຍອມໃຫ້ວິເຄາະຂໍ້ມູນລວມທັງການປະມວນຜົນໂດຍ AI" ໄວ້ທ້າຍເງື່ອນໄຂການໃຊ້ງານ. ພາຍໃຕ້ PDPA, ການຍິນຍອມຕ້ອງໄດ້ຮັບໃນ "ຮູບແບບທີ່ແຍກອອກຢ່າງຊັດເຈນ", ແລະ ຫາກຂໍ້ກຳນົດການຍິນຍອມຖືກປົນກັບຂໍ້ກຳນົດອື່ນໆ, ມີຄວາມສ່ຽງທີ່ຈະຖືກປະຕິເສດຄວາມຖືກຕ້ອງ.
ລາຍການທີ່ຕ້ອງລະບຸໃນນະໂຍບາຍຄວາມເປັນສ່ວນຕົວ:
ນະໂຍບາຍຄວາມເປັນສ່ວນຕົວຕ້ອງລວມມີຢ່າງໜ້ອຍດັ່ງຕໍ່ໄປນີ້:
ໃນກໍລະນີທີ່ໃຊ້ຂໍ້ມູນສ່ວນຕົວໃນການຝຶກສອນໂມເດລ AI ປະເດັນໃຫຍ່ທີ່ສຸດຄືການພິຈາລະນາວ່າຢູ່ໃນຂອບເຂດຈຸດປະສົງຂອງການເກັບກຳຂໍ້ມູນໃນເບື້ອງຕົ້ນຫຼືບໍ່.
ລາຍການກວດສອບ:
ຄວາມແຕກຕ່າງລະຫວ່າງ Anonymization ແລະ Pseudonymization:
ໃນບໍລິບົດຂອງ PDPA ຈຳເປັນຕ້ອງແຍກຄວາມແຕກຕ່າງລະຫວ່າງ "Anonymization" ແລະ "Pseudonymization" ຢ່າງຊັດເຈນ.
ໃນກໍລະນີທີ່ໃຊ້ຂໍ້ມູນ Pseudonymization ສຳລັບການຝຶກສອນ AI ຍັງຕ້ອງປະຕິບັດຕາມຂໍ້ກຳນົດຂອງ PDPA ຕໍ່ໄປ. ການຕັດສິນໃຈວ່າ "ໃຊ້ Hash ແລ້ວກໍ່ບໍ່ເປັນຫຍັງ" ນັ້ນເປັນສິ່ງທີ່ອັນຕະລາຍ. ເຖິງແມ່ນວ່າຈະບໍ່ສາມາດຟື້ນຟູຂໍ້ມູນຕົ້ນສະບັບຈາກຄ່າ Hash ໄດ້ກໍ່ຕາມ ກໍ່ມີກໍລະນີທີ່ບໍ່ໜ້ອຍທີ່ສາມາດລະບຸຕົວຕົນຄືນໄດ້ (Re-identification) ໂດຍການຈັບຄູ່ກັບຂໍ້ມູນອື່ນ. ຄວາມພຽງພໍຂອງ Anonymization ຄວນໄດ້ຮັບການປະເມີນຢ່າງລະມັດລະວັງ ໂດຍຄຳນຶງເຖິງເຕັກໂນໂລຊີທີ່ສາມາດໃຊ້ໄດ້ ແລະ ຄວາມສາມາດໃນການເຂົ້າເຖິງຂໍ້ມູນເພີ່ມເຕີມ.
ໃນກໍລະນີທີ່ໃຊ້ຂໍ້ມູນສ່ວນຕົວໃນການຝຶກຝົນໂມເດລ AI ປະເດັນສຳຄັນທີ່ສຸດຄືການພິຈາລະນາວ່າຢູ່ໃນຂອບເຂດຈຸດປະສົງທີ່ໄດ້ລະບຸໄວ້ຕອນເກັບກຳຂໍ້ມູນຫຼືບໍ່.
ລາຍການກວດສອບ:
ຄວາມແຕກຕ່າງລະຫວ່າງ Anonymization ແລະ Pseudonymization:
ໃນບໍລິບົດຂອງ PDPA ຈຳເປັນຕ້ອງແຍກຄວາມແຕກຕ່າງລະຫວ່າງ "Anonymization" ແລະ "Pseudonymization" ໃຫ້ຊັດເຈນ.
ໃນກໍລະນີທີ່ໃຊ້ຂໍ້ມູນ Pseudonymization ໃນຂໍ້ມູນຝຶກຝົນ AI ຍັງຕ້ອງປະຕິບັດຕາມຂໍ້ກຳນົດຂອງ PDPA ຕໍ່ໄປ. ການຕັດສິນໃຈວ່າ "Hash ແລ້ວກໍໂອເຄ" ນັ້ນເປັນສິ່ງທີ່ອັນຕະລາຍ. ເຖິງແມ່ນວ່າຈະບໍ່ສາມາດກູ້ຄືນຂໍ້ມູນຕົ້ນສະບັບຈາກຄ່າ Hash ໄດ້ ກໍຍັງມີກໍລະນີທີ່ສາມາດລະບຸຕົວຕົນຄືນໄດ້ (Re-identification) ໂດຍການຈັບຄູ່ກັບຂໍ້ມູນອື່ນໆ ຊຶ່ງບໍ່ແມ່ນເລື່ອງໜ້ອຍ. ຄວາມພຽງພໍຂອງ Anonymization ຄວນໄດ້ຮັບການປະເມີນຢ່າງລະມັດລະວັງໂດຍຄຳນຶງເຖິງເຕັກໂນໂລຊີທີ່ສາມາດໃຊ້ໄດ້ ແລະ ຄວາມເປັນໄປໄດ້ໃນການເຂົ້າເຖິງຂໍ້ມູນເພີ່ມເຕີມ.

ຫຼັງຈາກເກັບກຳຂໍ້ມູນແລ້ວ, ຈະເຂົ້າສູ່ໄລຍະການປະມວນຜົນ ແລະ ການວິເຄາະໂດຍ AI. ໃນທີ່ນີ້, ຈຸດສຳຄັນ ຫຼື ແກນຫຼັກຄືການກວດສອບວ່າຂອບເຂດຂອງການປະມວນຜົນບໍ່ໄດ້ເກີນເລີຍຈຸດປະສົງຂອງການເກັບກຳຂໍ້ມູນ, ແລະ ບໍ່ໄດ້ລະເມີດສິດຂອງເຈົ້າຂອງຂໍ້ມູນ.

ຫຼັງຈາກເກັບກຳຂໍ້ມູນແລ້ວ, ຈະເຂົ້າສູ່ໄລຍະການປະມວນຜົນ ແລະ ການວິເຄາະດ້ວຍ AI. ໃນຂັ້ນຕອນນີ້, ຈຸດສຳຄັນ ຫຼື ແກນຫຼັກຄືການກວດສອບວ່າຂອບເຂດຂອງການປະມວນຜົນບໍ່ໄດ້ເກີນເລີຍຈາກຈຸດປະສົງທີ່ກຳນົດໄວ້ໃນເວລາເກັບກຳຂໍ້ມູນ ແລະ ບໍ່ໄດ້ລະເມີດສິດຂອງເຈົ້າຂອງຂໍ້ມູນ.
PDPA ບໍ່ມີບົດບັນຍັດທີ່ຊັດເຈນທີ່ທຽບເທົ່າກັບ "ສິດໃນການປະຕິເສດການຕັດສິນໃຈທີ່ອີງໃສ່ການປະມວນຜົນອັດຕະໂນມັດເທົ່ານັ້ນ" ຕາມມາດຕາ 22 ຂອງ GDPR ຂອງ EU ແຕ່ກໍ່ບໍ່ໄດ້ໝາຍຄວາມວ່າ Profiling ຈະຢູ່ນອກເໜືອການຄວບຄຸມໂດຍສິ້ນເຊີງ.
Checklist:
ເຖິງແມ່ນວ່າຈະບໍ່ແມ່ນພັນທະທີ່ກຳນົດໄວ້ຢ່າງຊັດເຈນພາຍໃຕ້ PDPA ກໍ່ຕາມ ກົນໄກການຕັດສິນໃຈຂັ້ນສຸດທ້າຍໂດຍມະນຸດແມ່ນໄດ້ຮັບການແນະນຳຢ່າງຍິ່ງໃນທາງປະຕິບັດ ທັງໃນຖານະມາດຕະການຫຼຸດຜ່ອນຄວາມສ່ຽງ ແລະ ໃນແງ່ຂອງ Accountability ດ້ວຍ. ເນື່ອງຈາກ GDPR ໄດ້ບັນຍັດສິດໃນການປະຕິເສດການຕັດສິນໃຈອັດຕະໂນມັດໄວ້ຢ່າງຊັດເຈນ ຈຶ່ງບໍ່ສາມາດຕັດຄວາມເປັນໄປໄດ້ທີ່ໄທຈະນຳເອົາບົດບັນຍັດທຳນອງດຽວກັນນີ້ມາໃຊ້ໃນອະນາຄົດໄດ້. ການວາງແຜນລ່ວງໜ້າດ້ວຍການອອກແບບລະບົບການກວດສອບໂດຍມະນຸດໄວ້ກ່ອນ ຍັງຖືເປັນການກຽມຮັບມືກັບຄວາມສ່ຽງຈາກການປ່ຽນແປງດ້ານກົດລະບຽບໄດ້ອີກດ້ວຍ.
ນອກຈາກນີ້ PDPC ໄດ້ເຜີຍແຜ່ແນວທາງທີ່ກຳນົດໃຫ້ຜູ້ປະກອບການທີ່ດຳເນີນການປະມວນຜົນຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບ Profiling ຕ້ອງຈັດຕັ້ງ DPO. ໃນກໍລະນີທີ່ດຳເນີນການ Profiling ດ້ວຍ AI ຄວນພິຈາລະນາການຈັດຕັ້ງ DPO ຢ່າງຈິງຈັງ.
PDPA ບໍ່ມີບົດບັນຍັດທີ່ຊັດເຈນທີ່ທຽບເທົ່າກັບ "ສິດໃນການປະຕິເສດການຕັດສິນໃຈທີ່ອີງໃສ່ການປະມວນຜົນອັດຕະໂນມັດເທົ່ານັ້ນ" ຕາມມາດຕາ 22 ຂອງ GDPR ຂອງ EU ແຕ່ນັ້ນກໍ່ບໍ່ໄດ້ໝາຍຄວາມວ່າ Profiling ຈະຢູ່ນອກການຄວບຄຸມທາງກົດໝາຍທັງໝົດ.
Checklist:
ເຖິງແມ່ນວ່ານີ້ຈະບໍ່ແມ່ນພັນທະທີ່ລະບຸໄວ້ຢ່າງຊັດເຈນໃນ PDPA ກໍ່ຕາມ ກົນໄກການຕັດສິນໃຈຂັ້ນສຸດທ້າຍໂດຍມະນຸດແມ່ນໄດ້ຮັບການແນະນຳຢ່າງຍິ່ງໃນທາງປະຕິບັດ ທັງໃນຖານະມາດຕະການຫຼຸດຜ່ອນຄວາມສ່ຽງ ແລະ ໃນແງ່ຂອງ Accountability ດ້ວຍ. ເນື່ອງຈາກ GDPR ໄດ້ບັນຍັດສິດໃນການປະຕິເສດການຕັດສິນໃຈອັດຕະໂນມັດໄວ້ຢ່າງຊັດເຈນ ຈຶ່ງບໍ່ສາມາດຕັດຄວາມເປັນໄປໄດ້ທີ່ໄທຈະນຳເອົາບົດບັນຍັດທຳນອງດຽວກັນນີ້ມາໃຊ້ໃນອະນາຄົດໄດ້. ການອອກແບບລະບົບການກວດສອບໂດຍມະນຸດໄວ້ລ່ວງໜ້າຍັງຖືເປັນການກຽມພ້ອມຮັບມືກັບຄວາມສ່ຽງຈາກການປ່ຽນແປງກົດລະບຽບໃນອະນາຄົດອີກດ້ວຍ.
ນອກຈາກນີ້ PDPC ໄດ້ເຜີຍແຜ່ແນວທາງທີ່ກຳນົດໃຫ້ຜູ້ປະກອບການທີ່ດຳເນີນການປະມວນຜົນຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບ Profiling ຕ້ອງແຕ່ງຕັ້ງ DPO. ໃນກໍລະນີທີ່ດຳເນີນການ Profiling ດ້ວຍ AI ຄວນພິຈາລະນາການແຕ່ງຕັ້ງ DPO ຢ່າງຈິງຈັງ.
PDPA ກຳນົດໃຫ້ການເກັບກຳຂໍ້ມູນສ່ວນຕົວຕ້ອງ "ຈຳກັດສະເພາະໃນຂອບເຂດທີ່ຈຳເປັນ". ເນື່ອງຈາກ AI ມີແນວໂນ້ມທີ່ຈະມີຄວາມຖືກຕ້ອງສູງຂຶ້ນເມື່ອໄດ້ຮັບຂໍ້ມູນຫຼາຍຂຶ້ນ, ຫຼັກການນີ້ຈຶ່ງອາດຂັດແຍ້ງກັນໄດ້ງ່າຍ.
ລາຍການກວດສອບ:
ວິທີການທີ່ສ້າງຄວາມສົມດຸນລະຫວ່າງການຫຼຸດຂໍ້ມູນໃຫ້ໜ້ອຍທີ່ສຸດ ແລະ ຄວາມຖືກຕ້ອງຂອງ AI:
ແນວຄິດທີ່ວ່າ "ຂໍ້ມູນຫຼາຍຍິ່ງດີ" ຍັງຄົງຝັງລຶກໃນການພັດທະນາ AI, ແຕ່ຂໍ້ມູນທຸກລາຍການບໍ່ໄດ້ສົ່ງຜົນຕໍ່ຄວາມຖືກຕ້ອງຂອງການທຳນາຍຢ່າງເທົ່າທຽມກັນ. ການລວມວິທີການທາງເຕັກນິກດັ່ງຕໍ່ໄປນີ້ ຊ່ວຍໃຫ້ສາມາດຮັກສາຄວາມເປັນປະໂຫຍດຂອງໂມເດລໄວ້ໄດ້ ໃນຂະນະທີ່ຫຼຸດການໃຊ້ຂໍ້ມູນສ່ວນຕົວ.
ວິທີການເຫຼົ່ານີ້ທຸກຢ່າງລ້ວນມີການແລກປ່ຽນ ຫຼື Trade-off ທາງເຕັກນິກ. ຄວາມສົມດຸນລະຫວ່າງຄວາມຕ້ອງການດ້ານຄວາມຖືກຕ້ອງ ແລະ ຄວາມຕ້ອງການດ້ານການປະຕິບັດຕາມກົດລະບຽບ ຈຳເປັນຕ້ອງໄດ້ຮັບການພິຈາລະນາເປັນກໍລະນີໆ ຕາມການນຳໃຊ້ງານແຕ່ລະກໍລະນີ.
PDPA ກຳນົດໃຫ້ການເກັບກຳຂໍ້ມູນສ່ວນຕົວຕ້ອງ "ຈຳກັດສະເພາະຂອບເຂດທີ່ຈຳເປັນ". ເນື່ອງຈາກ AI ມີແນວໂນ້ມທີ່ຈະມີຄວາມຖືກຕ້ອງສູງຂຶ້ນເມື່ອໃສ່ຂໍ້ມູນຈຳນວນຫຼາຍ, ຫຼັກການນີ້ຈຶ່ງມັກຂັດແຍ້ງກັນໄດ້ງ່າຍ.
ລາຍການກວດສອບ:
ວິທີການທີ່ສ້າງຄວາມສົມດຸນລະຫວ່າງການຫຼຸດຜ່ອນຂໍ້ມູນ ແລະ ຄວາມຖືກຕ້ອງຂອງ AI:
ແນວຄິດທີ່ວ່າ "ຂໍ້ມູນຫຼາຍຍິ່ງດີ" ຍັງຄົງຝັງລຶກໃນການພັດທະນາ AI, ແຕ່ຂໍ້ມູນທຸກລາຍການບໍ່ໄດ້ສົ່ງຜົນຕໍ່ຄວາມຖືກຕ້ອງໃນການທຳນາຍຢ່າງເທົ່າທຽມກັນ. ການຜະສົມຜະສານວິທີການທາງເທັກນິກດັ່ງຕໍ່ໄປນີ້ ຊ່ວຍໃຫ້ສາມາດຮັກສາຄວາມເປັນປະໂຫຍດຂອງໂມເດລໄດ້ ໃນຂະນະທີ່ຫຼຸດຜ່ອນການໃຊ້ຂໍ້ມູນສ່ວນຕົວ.
ວິທີການເຫຼົ່ານີ້ລ້ວນມີການແລກປ່ຽນ ຫຼື Trade-off ທາງເທັກນິກທີ່ຕ້ອງຄຳນຶງເຖິງ. ຄວາມສົມດຸນລະຫວ່າງຂໍ້ກຳນົດດ້ານຄວາມຖືກຕ້ອງ ແລະ ຂໍ້ກຳນົດດ້ານການປະຕິບັດຕາມກົດໝາຍ ຈຳເປັນຕ້ອງໄດ້ຮັບການພິຈາລະນາເປັນກໍລະນີໄປ ຕາມແຕ່ລະ Use Case.

ຫຼັງຈາກທີ່ໂມເດລ AI ເລີ່ມດຳເນີນງານແລ້ວ, ການຈັດການໄລຍະເວລາການເກັບຮັກສາຂໍ້ມູນ ແລະ ການຕອບສະໜອງຕໍ່ການໃຊ້ສິດຂອງເຈົ້າຂອງຂໍ້ມູນຍັງຄົງເປັນສິ່ງທີ່ຕ້ອງດຳເນີນການຢ່າງຕໍ່ເນື່ອງ. ໂດຍສະເພາະ, ການໂອນຍ້າຍຂໍ້ມູນຂ້າມຊາຍແດນ (Cross-border) ນັ້ນ, ກົດລະບຽບທີ່ກ່ຽວຂ້ອງຍັງມີຄວາມຜັນຜວນ, ດັ່ງນັ້ນຈຶ່ງຕ້ອງຕິດຕາມຄວາມເຄື່ອນໄຫວຫຼ້າສຸດຢ່າງໃກ້ຊິດ.

ຫຼັງຈາກທີ່ໂມເດລ AI ເລີ່ມດຳເນີນງານແລ້ວ, ການຈັດການໄລຍະເວລາການເກັບຮັກສາຂໍ້ມູນ ແລະ ການຕອບສະໜອງຕໍ່ການໃຊ້ສິດຂອງເຈົ້າຂອງຂໍ້ມູນຍັງຄົງຕ້ອງໄດ້ດຳເນີນການຢ່າງຕໍ່ເນື່ອງ. ໂດຍສະເພາະ, ການໂອນຍ້າຍຂໍ້ມູນຂ້າມຊາຍແດນ (Cross-border) ນັ້ນ, ກົດລະບຽບທີ່ກ່ຽວຂ້ອງຍັງມີຄວາມຜັນຜວນຢູ່ ດັ່ງນັ້ນຈຶ່ງຕ້ອງຕິດຕາມຄວາມເຄື່ອນໄຫວລ່າສຸດຢ່າງໃກ້ຊິດ.
ລາຍການກວດສອບໄລຍະເວລາການເກັບຮັກສາຂໍ້ມູນ:
ລາຍການກວດສອບການໂອນຂໍ້ມູນຂ້າມຊາຍແດນ:
ໃນກໍລະນີທີ່ໃຊ້ບໍລິການ AI ຕ່າງປະເທດ (Cloud API, ເຄື່ອງມື AI ປະເພດ SaaS ເປັນຕົ້ນ), ຂໍ້ມູນສ່ວນຕົວຈະຖືກໂອນໄປຍັງຕ່າງປະເທດ. ຈຶ່ງຈຳເປັນຕ້ອງດຳເນີນການຕາມມາດຕາ 28 ແລະ 29 ຂອງ PDPA.
PDPC ຍັງບໍ່ທັນໄດ້ເຜີຍແຜ່ລາຍຊື່ການຮັບຮອງຄວາມພຽງພໍ (ນັບຕາມເວລາທີ່ຂຽນບົດຄວາມນີ້). ດ້ວຍເຫດນີ້, ໃນຂັ້ນຕອນປະຈຸບັນ, ການຈັດຕັ້ງ SCC ຫຼື BCR ຈຶ່ງເປັນການດຳເນີນການມາດຕະຖານໃນທາງປະຕິບັດ. ສຳລັບ SCC ນັ້ນ, ຮູບແບບທີ່ນິຍົມໃຊ້ຄືການນຳເອົາຂໍ້ກຳນົດສັນຍາມາດຕະຖານຂອງ ASEAN ຫຼື EU ມາເປັນພື້ນຖານ ແລ້ວເພີ່ມເຕີມຂໍ້ກຳນົດສະເພາະຂອງໄທ (ເຊັ່ນ: ພັນທະລາຍງານການຮົ່ວໄຫລຂໍ້ມູນພາຍໃນ 72 ຊົ່ວໂມງ ເປັນຕົ້ນ) ເຂົ້າໄປ.
ລາຍການກວດສອບໄລຍະເວລາການເກັບຮັກສາຂໍ້ມູນ:
ລາຍການກວດສອບການໂອນຂໍ້ມູນຂ້າມຊາຍແດນ:
ໃນກໍລະນີທີ່ໃຊ້ບໍລິການ AI ຕ່າງປະເທດ (Cloud API, SaaS AI Tools ແລະອື່ນໆ), ຂໍ້ມູນສ່ວນຕົວຈະຖືກໂອນໄປຍັງຕ່າງປະເທດ. ຈຶ່ງຈຳເປັນຕ້ອງດຳເນີນການຕາມ PDPA ມາດຕາ 28 ແລະ 29.
PDPC ຍັງບໍ່ທັນໄດ້ເປີດຕົວ ຫຼື Launch ລາຍຊື່ການຮັບຮອງຄວາມພຽງພໍ (ນັບຕາມເວລາທີ່ຂຽນບົດຄວາມນີ້). ດ້ວຍເຫດນີ້, ໃນຂັ້ນຕອນປະຈຸບັນ, ການຈັດຕັ້ງ SCC ຫຼື BCR ຈຶ່ງເປັນການດຳເນີນການມາດຕະຖານໃນທາງປະຕິບັດ. ສຳລັບ SCC ນັ້ນ, ຮູບແບບທີ່ນິຍົມໃຊ້ຄືການອ້າງອີງ ASEAN Model Contractual Clauses ຫຼື EU Standard Contractual Clauses ເປັນພື້ນຖານ ແລ້ວເພີ່ມເຕີມຂໍ້ກຳນົດສະເພາະຂອງໄທ (ເຊັ່ນ: ການລາຍງານການຮົ່ວໄຫຼຂໍ້ມູນພາຍໃນ 72 ຊົ່ວໂມງ ແລະອື່ນໆ) ເຂົ້າໄປ.
PDPA ຮັບຮອງສິດທິຫຼາຍຢ່າງໃຫ້ແກ່ເຈົ້າຂອງຂໍ້ມູນ. ໃນການດຳເນີນງານລະບົບ AI ນັ້ນ, ຈຳເປັນຕ້ອງອອກແບບລ່ວງໜ້າວ່າຈະຮັບມືກັບການໃຊ້ສິດທິເຫຼົ່ານີ້ແນວໃດ.
ລາຍການກວດສອບ:
ສິ່ງທ້າທາຍສະເພາະຂອງ AI — ສິດທິການລຶບ ແລະ ໂມເດລທີ່ຝຶກສອນແລ້ວ:
"Machine Unlearning" ຊຶ່ງເປັນການລຶບຂໍ້ມູນຂອງບຸກຄົນສະເພາະໃດໜຶ່ງອອກຈາກໂມເດລ AI ທີ່ຝຶກສອນແລ້ວຢ່າງສົມບູນນັ້ນ, ຍັງຢູ່ໃນຂັ້ນພັດທະນາທາງດ້ານເຕັກນິກ. ມາດຕະການຮັບມືທີ່ເປັນໄປໄດ້ຕາມຄວາມເປັນຈິງມີດັ່ງນີ້:
ໃນທຸກກໍລະນີ, ສິ່ງສຳຄັນຄືການອະທິບາຍຢ່າງຊື່ສັດຕໍ່ເຈົ້າຂອງຂໍ້ມູນກ່ຽວກັບເນື້ອໃນຂອງມາດຕະການທີ່ດຳເນີນ ແລະ ຂໍ້ຈຳກັດທາງດ້ານເຕັກນິກ. ບໍ່ຄວນສິ້ນສຸດດ້ວຍການຕອບພຽງວ່າ "ບໍ່ສາມາດດຳເນີນການໄດ້", ແຕ່ຄວນນຳສະເໜີທາງເລືອກທົດແທນ ແລ້ວດຳເນີນການໃນຮູບແບບທີ່ເຈົ້າຂອງຂໍ້ມູນສາມາດຍອມຮັບໄດ້.
PDPA ຮັບຮອງສິດຫຼາຍຢ່າງໃຫ້ແກ່ເຈົ້າຂອງຂໍ້ມູນ. ໃນການດຳເນີນງານລະບົບ AI ນັ້ນ, ຈຳເປັນຕ້ອງອອກແບບລ່ວງໜ້າວ່າຈະຮັບມືກັບການໃຊ້ສິດເຫຼົ່ານີ້ແນວໃດ.
ລາຍການກວດສອບ:
ສິ່ງທ້າທາຍສະເພາະຂອງ AI — ສິດໃນການລຶບ ແລະ ໂມເດລທີ່ຝຶກສອນແລ້ວ:
"Machine Unlearning" ຊຶ່ງເປັນການລຶບຂໍ້ມູນຂອງບຸກຄົນສະເພາະໃດໜຶ່ງອອກຈາກໂມເດລ AI ທີ່ຝຶກສອນແລ້ວຢ່າງສົມບູນນັ້ນ, ຍັງເປັນສາຂາທີ່ກຳລັງພັດທະນາທາງດ້ານເຕັກນິກ. ມາດຕະການຮັບມືທີ່ເປັນຈິງທີ່ສາມາດພິຈາລະນາໄດ້ມີດັ່ງນີ້:
ໃນທຸກກໍລະນີ, ສິ່ງສຳຄັນຄືການອະທິບາຍເນື້ອໃນການດຳເນີນການ ແລະ ຂໍ້ຈຳກັດທາງດ້ານເຕັກນິກໃຫ້ແກ່ເຈົ້າຂອງຂໍ້ມູນຢ່າງຊື່ສັດ. ບໍ່ຄວນຈົບພຽງແຕ່ "ບໍ່ສາມາດດຳເນີນການໄດ້", ແຕ່ຄວນສະເໜີມາດຕະການທົດແທນ ແລ້ວດຳເນີນການໃນຮູບແບບທີ່ເຈົ້າຂອງຂໍ້ມູນສາມາດຍອມຮັບໄດ້.

ນອກຈາກລາຍການຫຼັກໃນ Checklist ແລ້ວ, ຍັງມີປະເດັນທີ່ມັກຖືກມອງຂ້າມໃນການປະຕິບັດງານຕົວຈິງ. ໂດຍສະເພາະ, ການນຳໃຊ້ບໍລິການ AI ພາຍນອກ ແລະ ການກວດສອບ (Audit) ເຄື່ອງມື AI ພາຍໃນອົງກອນ ມັກກາຍເປັນຈຸດທີ່ຖືກລະເລີຍ.

ນອກຈາກລາຍການຫຼັກໃນ Checklist ແລ້ວ, ຍັງມີປະເດັນທີ່ມັກຖືກມອງຂ້າມໃນການປະຕິບັດງານຕົວຈິງ. ໂດຍສະເພາະ, ການນຳໃຊ້ບໍລິການ AI ພາຍນອກ ແລະ ການກວດສອບ (Audit) ເຄື່ອງມື AI ພາຍໃນອົງກອນ ມັກຈະກາຍເປັນຈຸດທີ່ຖືກມອງຂ້າມ.
ໃນກໍລະນີທີ່ນຳໃຊ້ບໍລິການ Generative AI ຫຼື API ສຳລັບການຮັບຮູ້ຮູບພາບ ແລະ ສຽງໃນການດຳເນີນທຸລະກິດ, ອົງກອນຂອງຕົນເອງມັກຈະເປັນ "ຜູ້ຄວບຄຸມຂໍ້ມູນ (Data Controller)" ໃນຂະນະທີ່ຜູ້ໃຫ້ບໍລິການຈະເປັນ "ຜູ້ປະມວນຜົນຂໍ້ມູນ (Data Processor)".
ລາຍການກວດສອບ:
ສິ່ງທີ່ມັກຖືກມອງຂ້າມຄືການໃຊ້ Generative AI ໃນຊີວິດປະຈຳວັນຂອງພະນັກງານ. ກໍລະນີທີ່ປ້ອນຂໍ້ມູນສ່ວນຕົວຂອງລູກຄ້າລົງໃນ Prompt ນັ້ນມີຫຼາຍກວ່າທີ່ຄາດຄິດ. ການກຳນົດແນວທາງການໃຊ້ງານພາຍໃນອົງກອນ ແລະ ການລະບຸກົດລະບຽບການປ້ອນຂໍ້ມູນສ່ວນຕົວ (ເຊັ່ນ: ຫ້າມປ້ອນ, ຕ້ອງເຮັດໃຫ້ເປັນນາມແຝງ ເປັນຕົ້ນ) ໃຫ້ຊັດເຈນເປັນລາຍລັກອັກສອນນັ້ນເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້. ຜົນຈາກການໃຊ້ງານຢ່າງໄຮ້ສະຕິດ້ວຍເຫດຜົນວ່າ "ສະດວກດີ" ອາດຖືກຄົ້ນພົບໃນລະຫວ່າງການສືບສວນຂອງ PDPC — ຮອດຕອນນັ້ນກໍສາຍໄປແລ້ວ.
ໃນກໍລະນີທີ່ນຳ AI ສ້າງເນື້ອຫາ (Generative AI) ຫຼື API ການຮັບຮູ້ຮູບພາບ ແລະ ສຽງ ມາໃຊ້ງານໃນອົງກອນ, ສ່ວນໃຫຍ່ແລ້ວ ອົງກອນຂອງຕົນເອງຈະຖືກຈັດເປັນ "ຜູ້ຄວບຄຸມຂໍ້ມູນ (Data Controller)" ໃນຂະນະທີ່ຜູ້ໃຫ້ບໍລິການຈະຖືກຈັດເປັນ "ຜູ້ປະມວນຜົນຂໍ້ມູນ (Data Processor)"
ລາຍການກວດສອບ:
ສິ່ງທີ່ມັກຖືກມອງຂ້າມຄືການທີ່ພະນັກງານໃຊ້ Generative AI ໃນຊີວິດປະຈຳວັນ. ກໍລະນີທີ່ປ້ອນຂໍ້ມູນສ່ວນຕົວຂອງລູກຄ້າລົງໃນ Prompt ນັ້ນມີຫຼາຍກວ່າທີ່ຄິດ. ການກຳນົດແນວທາງການໃຊ້ງານພາຍໃນອົງກອນ ແລະ ການລະບຸກົດລະບຽບການປ້ອນຂໍ້ມູນສ່ວນຕົວໄວ້ເປັນລາຍລັກອັກສອນ (ເຊັ່ນ: ຫ້າມປ້ອນ, ຕ້ອງເຮັດໃຫ້ເປັນນາມມະນາມກ່ອນ ເປັນຕົ້ນ) ຖືເປັນສິ່ງຈຳເປັນ. ຜົນທີ່ຕາມມາຈາກການໃຊ້ງານໂດຍບໍ່ຮູ້ຕົວດ້ວຍເຫດຜົນວ່າ "ສະດວກດີ" ຈົນຖືກ PDPC ກວດພົບ — ຮອດຕອນນັ້ນກໍ່ສາຍເກີນໄປແລ້ວ.
PDPA ກຳນົດໃຫ້ຜູ້ຄວບຄຸມຂໍ້ມູນມີພັນທະບັນທຶກກິດຈະກຳການປະມວນຜົນຂໍ້ມູນ. ໃນກໍລະນີທີ່ນຳໃຊ້ເຄື່ອງມື AI ພາຍໃນອົງກອນ, ການປະຕິບັດພັນທະການບັນທຶກດັ່ງກ່າວຖືເປັນສິ່ງທ້າທາຍໃນທາງປະຕິບັດ.
ລາຍການກວດສອບ:
ບັນທຶກການກວດສອບ (Audit Log) ຍັງທຳໜ້າທີ່ເປັນຫຼັກຖານໃນການຕອບສະໜອງຕໍ່ຄຳຮ້ອງຂໍກວດສອບຈາກ PDPC ຫຼື ຄຳຮ້ອງຂໍໃຊ້ສິດຂອງເຈົ້າຂອງຂໍ້ມູນ. ໃນດ້ານຄວາມປອດໄພ, ຄວນກຳນົດໄລຍະເວລາເກັບຮັກສາ Log ໃຫ້ຢ່າງໜ້ອຍເທົ່າກັບໄລຍະເວລາເກັບຮັກສາຂໍ້ມູນ.
ໃນທາງປະຕິບັດ, ການຈັດການ Log ການນຳໃຊ້ເຄື່ອງມື AI ທັງໝົດດ້ວຍຕົນເອງນັ້ນບໍ່ແມ່ນສິ່ງທີ່ເປັນໄປໄດ້ໃນຄວາມເປັນຈິງ. ຈຶ່ງແນະນຳໃຫ້ຝັງກົນໄກບັນທຶກ Metadata ຂອງ Request/Response (ເຊັ່ນ: Timestamp, User ID, ຈຸດປະສົງການປະມວນຜົນ) ໂດຍອັດຕະໂນມັດຜ່ານ API Gateway ຫຼື ຊັ້ນ Proxy.
PDPA ກຳນົດໃຫ້ຜູ້ຄວບຄຸມຂໍ້ມູນມີພັນທະບັນທຶກກິດຈະກຳການປະມວນຜົນຂໍ້ມູນ. ໃນກໍລະນີທີ່ນຳໃຊ້ເຄື່ອງມື AI ພາຍໃນອົງກອນ, ການປະຕິບັດພັນທະການບັນທຶກດັ່ງກ່າວຖືເປັນສິ່ງທ້າທາຍໃນທາງປະຕິບັດ.
ລາຍການກວດສອບ:
Log ການກວດສອບຍັງທຳໜ້າທີ່ເປັນຫຼັກຖານໃນການຕອບສະໜອງຕໍ່ຄຳຮ້ອງຂໍກວດສອບຈາກ PDPC ຫຼື ຄຳຮ້ອງຂໍໃຊ້ສິດຂອງເຈົ້າຂອງຂໍ້ມູນ. ການກຳນົດໄລຍະເວລາເກັບຮັກສາ Log ໃຫ້ຢ່າງໜ້ອຍເທົ່າກັບໄລຍະເວລາເກັບຮັກສາຂໍ້ມູນຖືເປັນວິທີທີ່ປອດໄພທີ່ສຸດ.
ໃນທາງປະຕິບັດ, ການຈັດການ Log ການນຳໃຊ້ເຄື່ອງມື AI ທັງໝົດດ້ວຍມືນັ້ນບໍ່ແມ່ນສິ່ງທີ່ເປັນໄປໄດ້ຕາມຄວາມເປັນຈິງ. ຈຶ່ງແນະນຳໃຫ້ຝັງກົນໄກບັນທຶກ Metadata ຂອງ Request/Response (Timestamp, User ID, ຈຸດປະສົງການປະມວນຜົນ) ໂດຍອັດຕະໂນມັດຜ່ານ API Gateway ຫຼື ຊັ້ນ Proxy.

ຄຳຖາມທີ 1: PDPA ແລະ GDPR ແຕກຕ່າງກັນແນວໃດ? ມີຈຸດໃດທີ່ຕ້ອງລະວັງໃນດ້ານການນຳໃຊ້ AI?
PDPA ໄດ້ຖືກຮ່າງຂຶ້ນໂດຍອ້າງອີງໃສ່ GDPR ແຕ່ມີຄວາມແຕກຕ່າງທີ່ສຳຄັນຫຼາຍຢ່າງ. ຄວາມແຕກຕ່າງທີ່ໃຫຍ່ທີ່ສຸດຄື PDPA ບໍ່ມີບົດບັນຍັດທີ່ຊັດເຈນທຽບເທົ່າກັບມາດຕາ 22 ຂອງ GDPR ທີ່ກຳນົດ "ສິດໃນການປະຕິເສດການຕັດສິນໃຈທີ່ອີງໃສ່ການປະມວນຜົນອັດຕະໂນມັດແຕ່ພຽງຢ່າງດຽວ". ຢ່າງໃດກໍ່ຕາມ, ນີ້ບໍ່ໄດ້ໝາຍຄວາມວ່າການປະມວນຜົນອັດຕະໂນມັດໂດຍ AI ຈະໄດ້ຮັບອະນຸຍາດໂດຍບໍ່ມີຂໍ້ຈຳກັດ. ເນື່ອງຈາກ PDPA ຍັງຄົງມີສິດໃນການຄັດຄ້ານຂອງເຈົ້າຂອງຂໍ້ມູນ ແລະ ສິດໃນການຄັດຄ້ານການປະມວນຜົນທີ່ອ້າງອີງໃສ່ຜົນປະໂຫຍດທີ່ຊອບທຳ, ການອອກແບບການດຳເນີນງານ AI ຈຶ່ງຍັງຕ້ອງການຄວາມລະມັດລະວັງຢ່າງຕໍ່ເນື່ອງ.
ຄຳຖາມທີ 2: ຖ້າພະນັກງານປ້ອນຂໍ້ມູນສ່ວນຕົວລົງໃນ Generative AI ໃນລະຫວ່າງການເຮັດວຽກ, ຈະຖືວ່າລະເມີດ PDPA ບໍ?
ຂຶ້ນຢູ່ກັບສະຖານະການ. ຖ້າຂໍ້ມູນສ່ວນຕົວທີ່ປ້ອນໃສ່ໃນ Prompt ຖືກສົ່ງໄປຍັງເຊີບເວີຂອງຜູ້ໃຫ້ບໍລິການ, ການດັ່ງກ່າວອາດຈະຖືວ່າເປັນການ "ເປີດເຜີຍ" ຂໍ້ມູນສ່ວນຕົວ. ຫາກວັດຖຸປະສົງທີ່ລະບຸໄວ້ໃນເວລາເກັບກຳຂໍ້ມູນບໍ່ໄດ້ລວມເຖິງ "ການປະມວນຜົນໂດຍບໍລິການ AI ພາຍນອກ", ກໍ່ຈະມີຄວາມສ່ຽງທີ່ຈະລະເມີດ PDPA ໃນຖານະການໃຊ້ຂໍ້ມູນນອກຈາກວັດຖຸປະສົງທີ່ກຳນົດໄວ້. ມາດຕະການທີ່ສາມາດດຳເນີນໄດ້ ໄດ້ແກ່: ການກຳນົດນະໂຍບາຍພາຍໃນທີ່ຫ້າມປ້ອນຂໍ້ມູນສ່ວນຕົວ, ການເຮັດ Anonymization ຂໍ້ມູນໃນເວລາໃຊ້ API, ແລະ ການເປີດໃຊ້ງານການຕັ້ງຄ່າທີ່ບໍ່ໃຫ້ນຳໃຊ້ຂໍ້ມູນໃນແຜນການສຳລັບອົງກອນ.
ຄຳຖາມທີ 3: ຖ້າເຮັດ Anonymization ແລ້ວ ຈະຢູ່ນອກຂອບເຂດການບັງຄັບໃຊ້ PDPA ບໍ?
ຖ້າສາມາດບັນລຸ "Anonymization" ທີ່ເຮັດໃຫ້ບໍ່ສາມາດລະບຸຕົວບຸກຄົນໄດ້ຢ່າງສົມບູນ, ກໍ່ຈະຢູ່ນອກຂອບເຂດການບັງຄັບໃຊ້ PDPA. ຢ່າງໃດກໍ່ຕາມ, "Pseudonymization" (ສະຖານະທີ່ສາມາດລະບຸຕົວຕົນໄດ້ເມື່ອລວມກັບຂໍ້ມູນເພີ່ມເຕີມ) ຍັງຢູ່ພາຍໃຕ້ຂອບເຂດການບັງຄັບໃຊ້ PDPA. ການ Hashing ແບບງ່າຍດາຍອາດຈະບໍ່ພຽງພໍທີ່ຈະຖືວ່າເປັນ Anonymization. ຄວາມພຽງພໍຂອງ Anonymization ຈຳເປັນຕ້ອງໄດ້ຮັບການພິຈາລະນາເປັນກໍລະນີໆ ໂດຍຄຳນຶງເຖິງເທັກໂນໂລຊີທີ່ມີຢູ່ ແລະ ຄວາມສາມາດໃນການເຂົ້າເຖິງຂໍ້ມູນເພີ່ມເຕີມ.
ຄຳຖາມທີ 4: ໃນກໍລະນີທີ່ໃຊ້ບໍລິການ Cloud AI ທີ່ຢູ່ນອກປະເທດໄທ, ຕ້ອງດຳເນີນການແນວໃດ?
ຈຳເປັນຕ້ອງດຳເນີນການຕາມມາດຕາ 28 (ການຮັບຮອງຄວາມພຽງພໍ) ຫຼື ມາດຕາ 29 (ມາດຕະການປົກປ້ອງທີ່ເໝາະສົມ) ຂອງ PDPA. ໃນຂະນະນີ້, ເນື່ອງຈາກ PDPC ຍັງບໍ່ທັນເປີດຕົວ ຫຼື Launch ລາຍຊື່ການຮັບຮອງຄວາມພຽງພໍ, ໃນທາງປະຕິບັດຈຶ່ງແນະນຳໃຫ້ຈັດຕຽມ Standard Contractual Clauses (SCC) ຫຼື Binding Corporate Rules (BCR). ສິ່ງສຳຄັນຄືການລວມເອົາຂໍ້ກຳນົດການປົກປ້ອງຂໍ້ມູນໃສ່ໃນສັນຍາກັບຜູ້ໃຫ້ບໍລິການ AI ແລະ ກຳນົດໃຫ້ຊັດເຈນກ່ຽວກັບສະຖານທີ່ປະມວນຜົນຂໍ້ມູນ, ມາດຕະການຄວາມປອດໄພ, ແລະ ຂະບວນການ ຫຼື Pipeline ການລາຍງານການຮົ່ວໄຫຼຂອງຂໍ້ມູນ.

Q1: PDPA ແລະ GDPR ແຕກຕ່າງກັນແນວໃດ? ມີຈຸດໃດທີ່ຕ້ອງລະວັງໃນແງ່ການນຳໃຊ້ AI?
PDPA ໄດ້ຮັບການຮ່າງຂຶ້ນໂດຍອ້າງອີງ GDPR ເປັນຕົ້ນແບບ ແຕ່ກໍ່ມີຄວາມແຕກຕ່າງທີ່ສຳຄັນຫຼາຍຢ່າງ. ຄວາມແຕກຕ່າງທີ່ໃຫຍ່ທີ່ສຸດຄື PDPA ບໍ່ມີບົດບັນຍັດທີ່ຊັດເຈນທຽບເທົ່າມາດຕາ 22 ຂອງ GDPR ທີ່ກຳນົດ "ສິດໃນການປະຕິເສດການຕັດສິນໃຈທີ່ອີງໃສ່ການປະມວນຜົນອັດຕະໂນມັດແຕ່ພຽງຢ່າງດຽວ". ຢ່າງໃດກໍ່ຕາມ ນີ້ບໍ່ໄດ້ໝາຍຄວາມວ່າການປະມວນຜົນອັດຕະໂນມັດໂດຍ AI ຈະໄດ້ຮັບອະນຸຍາດໂດຍບໍ່ມີຂໍ້ຈຳກັດ. ເນື່ອງຈາກ PDPA ຍັງຄົງຮັກສາສິດໃນການຄັດຄ້ານຂອງເຈົ້າຂອງຂໍ້ມູນ ແລະ ສິດໃນການຄັດຄ້ານການປະມວນຜົນທີ່ອ້າງອີງຜົນປະໂຫຍດທີ່ຊອບທຳ ດັ່ງນັ້ນການອອກແບບການດຳເນີນງານ AI ຈຶ່ງຍັງຕ້ອງໃຊ້ຄວາມລະມັດລະວັງຢ່າງຕໍ່ເນື່ອງ.
Q2: ຫາກພະນັກງານປ້ອນຂໍ້ມູນສ່ວນຕົວລົງໃນ Generative AI ໃນລະຫວ່າງການປະຕິບັດໜ້າທີ່ ຈະຖືວ່າລະເມີດ PDPA ຫຼືບໍ່?
ຂຶ້ນຢູ່ກັບສະຖານະການ. ຫາກຂໍ້ມູນສ່ວນຕົວທີ່ປ້ອນໃນ Prompt ຖືກສົ່ງໄປຍັງເຊີບເວີຂອງຜູ້ໃຫ້ບໍລິການ ການກະທຳດັ່ງກ່າວອາດຖືວ່າເປັນການ "ເປີດເຜີຍ" ຂໍ້ມູນສ່ວນຕົວ. ຫາກວັດຖຸປະສົງທີ່ລະບຸໄວ້ໃນຕອນເກັບກຳຂໍ້ມູນບໍ່ໄດ້ລວມເຖິງ "ການປະມວນຜົນໂດຍບໍລິການ AI ພາຍນອກ" ກໍ່ຈະມີຄວາມສ່ຽງຕໍ່ການລະເມີດ PDPA ໃນຖານະການໃຊ້ຂໍ້ມູນນອກເໜືອຈາກວັດຖຸປະສົງ. ມາດຕະການທີ່ສາມາດດຳເນີນໄດ້ ໄດ້ແກ່ ການກຳນົດນະໂຍບາຍພາຍໃນທີ່ຫ້າມປ້ອນຂໍ້ມູນສ່ວນຕົວ, ການເຮັດ Anonymization ຂໍ້ມູນໃນຕອນໃຊ້ API ແລະ ການເປີດໃຊ້ການຕັ້ງຄ່າທີ່ບໍ່ໃຊ້ຂໍ້ມູນໃນແຜນສຳລັບອົງກອນ.
Q3: ຫາກທຳການ Anonymization ແລ້ວ ຈະພົ້ນຈາກຂອບເຂດການບັງຄັບໃຊ້ PDPA ຫຼືບໍ່?
ຫາກບັນລຸ "Anonymization" ໃນລະດັບທີ່ບໍ່ສາມາດລະບຸຕົວບຸກຄົນໄດ້ຢ່າງສົມບູນ ກໍ່ຈະພົ້ນຈາກຂອບເຂດການບັງຄັບໃຊ້ PDPA. ຢ່າງໃດກໍ່ຕາມ "Pseudonymization" (ສະຖານະທີ່ສາມາດລະບຸຕົວຕົນໄດ້ເມື່ອລວມກັບຂໍ້ມູນເສີມ) ຍັງຢູ່ໃນຂອບເຂດການບັງຄັບໃຊ້ PDPA. ການ Hash ແບບງ່າຍດາຍພຽງຢ່າງດຽວອາດບໍ່ພຽງພໍທີ່ຈະຖືວ່າເປັນ Anonymization. ຄວາມພຽງພໍຂອງ Anonymization ຕ້ອງໄດ້ຮັບການພິຈາລະນາເປັນກໍລະນີໆ ໂດຍຄຳນຶງເຖິງເທັກໂນໂລຊີທີ່ມີຢູ່ ແລະ ຄວາມສາມາດໃນການເຂົ້າເຖິງຂໍ້ມູນເສີມ.
Q4: ໃນກໍລະນີທີ່ໃຊ້ Cloud AI Service ຈາກຕ່າງປະເທດ ຕ້ອງດຳເນີນການໃດແດ່?
ຕ້ອງດຳເນີນການຕາມມາດຕາ 28 (ການຮັບຮອງຄວາມພຽງພໍ) ຫຼື ມາດຕາ 29 (ມາດຕະການປົກປ້ອງທີ່ເໝາະສົມ) ຂອງ PDPA. ໃນຂະນະນີ້ ເນື່ອງຈາກ PDPC ຍັງບໍ່ທັນເຜີຍແຜ່ລາຍຊື່ການຮັບຮອງຄວາມພຽງພໍ ໃນທາງປະຕິບັດຈຶ່ງແນະນຳໃຫ້ຈັດຕຽມ Standard Contractual Clauses (SCC) ຫຼື Binding Corporate Rules (BCR). ສິ່ງສຳຄັນຄືການລວມເອົາຂໍ້ກຳນົດການປົກປ້ອງຂໍ້ມູນໃສ່ໃນສັນຍາກັບຜູ້ໃຫ້ບໍລິການ AI ແລະ ກຳນົດໃຫ້ຊັດເຈນກ່ຽວກັບສະຖານທີ່ປະມວນຜົນຂໍ້ມູນ, ມາດຕະການຄວາມປອດໄພ ແລະ ຂະບວນການ ຫຼື Pipeline ການລາຍງານການຮົ່ວໄຫຼຂອງຂໍ້ມູນ.

PDPA ຂອງໄທບໍ່ໄດ້ຫ້າມການນຳໃຊ້ AI ແຕ່ຢ່າງໃດ. ດ້ວຍການຮັບປະກັນຖານທາງກົດໝາຍທີ່ເໝາະສົມ, ການກຳນົດຈຸດປະສົງຢ່າງຊັດເຈນ, ການປົກປ້ອງສິດຂອງເຈົ້າຂອງຂໍ້ມູນ, ແລະ ການດຳເນີນມາດຕະການດ້ານຄວາມປອດໄພ, ການປະຕິບັດຕາມກົດໝາຍ (Compliance) ແລະ ການນຳໃຊ້ AI ສາມາດດຳເນີນຄຽງຄູ່ກັນໄດ້ຢ່າງສົມບູນ.
ຂໍສະຫຼຸບຈຸດສຳຄັນຂອງ Checklist ທີ່ນຳສະເໜີໃນບົດຄວາມນີ້ອີກຄັ້ງ.
ການບັງຄັບໃຊ້ຂອງ PDPC ເພີ່ມທະວີຂຶ້ນເລື້ອຍໆໃນແຕ່ລະປີ. ຂໍໃຫ້ນຳໃຊ້ Checklist ນີ້ເພື່ອກວດສອບສະຖານະການດຳເນີນງານຂອງຕົນເອງຢ່າງສະໝ່ຳສະເໝີ, ແລະ ສ້າງລະບົບທີ່ສາມາດຕິດຕາມການປ່ຽນແປງຂອງກົດໝາຍ ແລະ ແນວທາງໃໝ່ໆໄດ້ຢ່າງທັນການ. ສຳລັບການດຳເນີນການຢ່າງລະອຽດ, ແນະນຳຢ່າງຍິ່ງໃຫ້ປຶກສາຫາລືກັບສຳນັກງານກົດໝາຍທີ່ມີຄວາມຊ່ຽວຊານດ້ານກົດໝາຍໄທ, ເພື່ອຮັບຄຳແນະນຳທີ່ເໝາະສົມກັບສະຖານະການຂອງຕົນເອງ.

PDPA ຂອງໄທ ບໍ່ໄດ້ຫ້າມການນຳໃຊ້ AI ແຕ່ຢ່າງໃດ. ດ້ວຍການຮັບປະກັນຖານທາງກົດໝາຍທີ່ເໝາະສົມ, ການກຳນົດຈຸດປະສົງຢ່າງຊັດເຈນ, ການປົກປ້ອງສິດຂອງເຈົ້າຂອງຂໍ້ມູນ, ແລະ ການຈັດຕັ້ງມາດຕະການຄວາມປອດໄພ, ການປະຕິບັດຕາມກົດໝາຍ (Compliance) ແລະ ການນຳໃຊ້ AI ສາມາດດຳເນີນໄປຄຽງຄູ່ກັນໄດ້ຢ່າງສົມບູນ.
ຂໍສະຫຼຸບຈຸດສຳຄັນຂອງ Checklist ທີ່ນຳສະເໜີໃນບົດຄວາມນີ້ອີກຄັ້ງ.
ການບັງຄັບໃຊ້ຂອງ PDPC ເພີ່ມທະວີຂຶ້ນເລື້ອຍໆໃນແຕ່ລະປີ. ຂໍໃຫ້ນຳໃຊ້ Checklist ນີ້ເພື່ອກວດສອບສະຖານະການດຳເນີນງານຂອງອົງກອນຕົນເອງຢ່າງສະໝ່ຳສະເໝີ, ແລະ ສ້າງລະບົບທີ່ສາມາດຕິດຕາມການປ່ຽນແປງຂອງກົດໝາຍ ແລະ ແນວທາງໃໝ່ໆໄດ້ຢ່າງວ່ອງໄວ. ສຳລັບການດຳເນີນການຢ່າງລະອຽດ, ຂໍແນະນຳຢ່າງຍິ່ງໃຫ້ປຶກສາຫາລືກັບສຳນັກງານກົດໝາຍທີ່ມີຄວາມຊ່ຽວຊານດ້ານກົດໝາຍໄທ, ເພື່ອຮັບຄຳແນະນຳທີ່ເໝາະສົມກັບສະຖານະການຂອງອົງກອນຕົນເອງ.
Yusuke Ishihara
ເລີ່ມຂຽນໂປຣແກຣມຕັ້ງແຕ່ອາຍຸ 13 ປີ ດ້ວຍ MSX. ຫຼັງຈົບການສຶກສາຈາກມະຫາວິທະຍາໄລ Musashi, ໄດ້ເຮັດວຽກໃນການພັດທະນາລະບົບຂະໜາດໃຫຍ່ ລວມທັງລະບົບຫຼັກຂອງສາຍການບິນ ແລະ ໂຄງສ້າງ Windows Server Hosting/VPS ທຳອິດຂອງຍີ່ປຸ່ນ. ຮ່ວມກໍ່ຕັ້ງ Site Engine Inc. ໃນປີ 2008. ກໍ່ຕັ້ງ Unimon Inc. ໃນປີ 2010 ແລະ Enison Inc. ໃນປີ 2025, ນຳພາການພັດທະນາລະບົບທຸລະກິດ, NLP ແລະ ແພລດຟອມ. ປັດຈຸບັນສຸມໃສ່ການພັດທະນາຜະลິດຕະພັນ ແລະ ການສົ່ງເສີມ AI/DX ໂດຍນຳໃຊ້ generative AI ແລະ LLM.