Shadow AI หมายถึง เครื่องมือและบริการ AI ที่พนักงานนำมาใช้ในการทำงานโดยไม่ได้รับการอนุมัติจากฝ่าย IT หรือผู้บริหารขององค์กร ซึ่งมีความเสี่ยงต่อการรั่วไหลของข้อมูลและการละเมิดข้อกำหนดด้านการปฏิบัติตามกฎระเบียบ (Compliance)
Shadow AI คืออะไร? ทำความเข้าใจความเสี่ยงและแนวทางการจัดการ
Shadow AI (ชาโดว์ AI) คือคำเรียกรวมสำหรับเครื่องมือและบริการ AI ที่พนักงานนำมาใช้ในการทำงานโดยไม่ได้รับการอนุมัติจากฝ่าย IT หรือผู้บริหารขององค์กร ตัวอย่างที่พบบ่อยที่สุดคือการใช้บริการ生成AI อย่าง ChatGPT, Claude หรือ Gemini ผ่านบัญชีส่วนตัวเพื่อวัตถุประสงค์ทางธุรกิจ ซึ่งแฝงไปด้วยความเสี่ยงด้านการรั่วไหลของข้อมูลและการละเมิดข้อกำหนดด้านการปฏิบัติตามกฎระเบียบ
เบื้องหลังการแพร่กระจายของ Shadow AI คือช่องว่างระหว่างความสะดวกสบายอย่างล้นเหลือของเครื่องมือ AI กับความเร็วในการจัดเตรียมระบบขององค์กรที่ตามไม่ทัน พนักงานมีแรงจูงใจอันแรงกล้าที่ต้องการเพิ่มประสิทธิภาพในการทำงาน และยิ่งกระบวนการอนุมัติยืดเยื้อนานเท่าใด ก็ยิ่งมีแนวโน้มที่จะ "ลองใช้ก่อน" มากขึ้นเท่านั้น
แนวโน้มนี้ยิ่งชัดเจนขึ้นนับตั้งแต่การเติบโตของ生成AI การที่เครื่องมือซึ่งเชื่อมโยงโดยตรงกับงานประจำวัน ไม่ว่าจะเป็นการสร้างเอกสาร การเขียนโค้ด หรือการวิเคราะห์ข้อมูล สามารถใช้งานได้ฟรีหรือในราคาต่ำ ทำให้ฝ่าย IT ไม่สามารถดูแลจัดการได้ทัน ยิ่งไปกว่านั้น พนักงานที่มีAIリテラシー สูงมักจะนำเครื่องมือเหล่านี้มาใช้อย่างกระตือรือร้น ในขณะที่ความตระหนักด้านความเสี่ยงแตกต่างกันไปในแต่ละองค์กร ซึ่งนับเป็นความท้าทายอีกประการหนึ่ง
ความเสี่ยงของ Shadow AI สามารถแบ่งออกได้เป็นสามด้านหลัก
ความเสี่ยงด้านความมั่นคงปลอดภัยของข้อมูล การนำข้อมูลทางธุรกิจหรือข้อมูลลูกค้าไปป้อนให้กับบริการ AI ภายนอก อาจทำให้ข้อมูลลับถูกนำไปใช้เป็นข้อมูลฝึกสอนโดยไม่ได้ตั้งใจ นอกจากนี้ยังไม่ควรมองข้ามการโจมตีแบบプロンプトインジェクション และการนำข้อมูลที่ผิดพลาดอันเกิดจากハルシネーション มาใช้ในการทำงาน
ความเสี่ยงด้านการปฏิบัติตามกฎระเบียบ ภายใต้กรอบกฎหมายคุ้มครองข้อมูลส่วนบุคคล เช่น GDPR และPDPA รวมถึงกรอบการกำกับดูแล AI อย่างEU AI Act การใช้เครื่องมือที่ไม่ได้รับการอนุมัติอาจก่อให้เกิดความรับผิดทางกฎหมายได้ จากมุมมองของAIガバナンス การที่องค์กรไม่สามารถติดตามสถานการณ์การใช้งานจริงได้ก็ถือเป็นความเสี่ยงขององค์กรเช่นกัน
ความเสี่ยงด้านคุณภาพและความน่าเชื่อถือ การนำผลลัพธ์จาก AI มาใช้ในการตัดสินใจทางธุรกิจโดยไม่มีกลไกHITL(Human-in-the-Loop) ที่เหมาะสม อาจนำไปสู่การตัดสินใจที่ผิดพลาดและส่งผลกระทบต่อเนื่องได้ สำหรับเครื่องมือที่ได้รับการอนุมัติแล้ว สามารถจัดเตรียมガードレール และระบบตรวจสอบคุณภาพผลลัพธ์ได้ แต่สำหรับ Shadow AI นั้นเป็นเรื่องที่ทำได้ยาก
ในอดีต การ "ห้ามใช้" เป็นแนวทางหลักในการรับมือ แต่ปัจจุบันแนวคิดกำลังเปลี่ยนไปสู่ "การใช้ประโยชน์อย่างมีการควบคุม" เนื่องจากมีความตระหนักแพร่หลายมากขึ้นว่า การห้ามเพียงอย่างเดียวไม่สามารถตอบสนองความต้องการด้านการเพิ่มผลิตภาพของพนักงานได้ และยิ่งกว่านั้นยังอาจทำให้การใช้งานซ่อนเร้นและหลบเลี่ยงการตรวจสอบมากขึ้น
แนวทางที่นำมาใช้เป็นมาตรการที่มีประสิทธิภาพ ได้แก่
แนวคิดシフトレフト ที่พูดถึงในบริบทของDevSecOps ซึ่งหมายถึงการผนวกการบริหารความเสี่ยงไว้ตั้งแต่ระยะแรก แทนที่จะรอจัดการในขั้นตอนหลัง สามารถนำมาประยุกต์ใช้กับการกำกับดูแลการใช้งาน AI ได้เช่นกัน การสร้างระบบที่ผนวกข้อกำหนดด้านความมั่นคงปลอดภัยตั้งแต่ขั้นตอนการเลือกเครื่องมือ คือเส้นทางที่นำไปสู่การแก้ปัญหา Shadow AI อย่างถึงรากถึงโคน
เพื่อให้องค์กรสามารถใช้ประโยชน์จาก AI เชิงกลยุทธ์และเพิ่มAI ROI ให้สูงสุด การสร้างกลไกที่ไม่บั่นทอนความกระตือรือร้นในการใช้งานของพนักงาน แต่นำมาใช้ภายในกรอบการจัดการที่เหมาะสมนั้นเป็นสิ่งที่ขาดไม่ได้ Shadow AI เป็นทั้ง "ปัญหา" และในขณะเดียวกันก็เป็นกระจกสะท้อนความต้องการขององค์กรในการนำ AI มาใช้ประโยชน์



สถาปัตยกรรมที่รันการอนุมานด้วย AI บนอุปกรณ์โดยตรง แทนที่จะใช้ Cloud ช่วยให้มี latency ต่ำ ปกป้องความเป็นส่วนตัว และทำงานได้แบบออฟไลน์

แอมเบียนต์ AI (Ambient AI) หมายถึงระบบ AI ที่ฝังตัวอยู่ในสภาพแวดล้อมของผู้ใช้อย่างถาวร โดยสามารถตรวจสอบข้อมูลจากเซนเซอร์และเหตุการณ์ต่าง ๆ รวมถึงดำเนินการเชิงรุกได้โดยไม่ต้องรอคำสั่งที่ชัดเจนจากผู้ใช้

ความรู้และทักษะในการทำความเข้าใจแนวคิดพื้นฐาน ข้อจำกัด และความเสี่ยงของ AI เพื่อนำไปใช้งานในองค์กรได้อย่างเหมาะสม โดย EU AI Act กำหนดให้องค์กรต้องจัดให้มีสิ่งนี้

AI Agent อิสระที่รับบทบาทหน้าที่งานเฉพาะด้านและดำเนินงานอย่างต่อเนื่องเช่นเดียวกับพนักงานมนุษย์ จุดที่แตกต่างจาก AI Assistant แบบดั้งเดิมคือมีขอบเขตความรับผิดชอบในฐานะตำแหน่งงาน ไม่ใช่เพียงการตอบสนองต่อคำสั่งแบบครั้งต่อครั้ง

AI Agent คือระบบ AI ที่วางแผนและดำเนินงานอย่างอิสระเพื่อบรรลุเป้าหมายที่กำหนด โดยสามารถเรียกใช้ external tools ต่างๆ ในระหว่างการทำงานได้