AI ไม่ได้เป็นต้นตอของความเสี่ยงใหม่ในองค์กร แต่กำลัง “ขยายจุดอ่อนเดิม” ด้านธรรมาภิบาล การบริหารความเสี่ยง และการปฏิบัติตามกฎระเบียบ (GRC) ให้ชัดเจนและรุนแรงขึ้น

ดร.พงษ์พิสิฐ วุฒิดิษฐโชติ หัวหน้าเจ้าหน้าที่ฝ่ายความปลอดภัยทางไซเบอร์และความเป็นส่วนตัว บริษัทหัวเว่ย เทคโนโลยี่ (ประเทศไทย) จำกัด กล่าวบนเวที Cybersec Asia 2026 ว่า ปัญหาไม่ได้อยู่ที่ตัว AI แต่คือรากฐานด้าน Governance ที่ยังไม่แข็งแรง ทั้งนโยบายไม่ชัด ระบบควบคุมอ่อนแอ และความเสี่ยงที่ไม่ได้รับการบริหารอย่างเหมาะสม

เขาเน้นว่า ก่อนนำ AI มาใช้ องค์กรต้องกำหนดกรอบชัดเจน ทั้งประเภทเครื่องมือ AI ที่อนุญาตให้ใช้ ข้อมูลที่สามารถประมวลผลได้ รวมถึงการเลือกใช้ AI แบบสาธารณะหรือแบบส่วนตัว เพราะหากขาดการกำกับดูแล AI จะยิ่งเร่งให้ความเสี่ยงไซเบอร์เพิ่มขึ้น โดยเฉพาะในองค์กรที่ยังใช้ระบบไอทีล้าสมัย

แนวทางสำคัญคือการทำให้ “นโยบาย” กลายเป็นกลไกบังคับใช้จริงผ่านเทคโนโลยี หรือ Policy as Code พร้อมสร้างสมดุลระหว่างบุคลากร กระบวนการ และเทคโนโลยี

หัวเว่ยย้ำหลัก Security and Privacy by Design และ by Default ครอบคลุมตลอดวงจรชีวิต AI ตั้งแต่การจัดหาข้อมูล การประมวลผล ไปจนถึงการใช้งานจริง ภายใต้มาตรฐานสากลอย่าง ISO/IEC 42001 พร้อมเปิดให้ตรวจสอบผ่าน Global Cyber Security and Privacy Protection Transparency Center

สาระสำคัญคือ AI เป็นสิ่งที่หลีกเลี่ยงไม่ได้ แต่การใช้งานอย่างมีความรับผิดชอบต้องเริ่มจากการฝังความมั่นคงปลอดภัยและความเป็นส่วนตัวตั้งแต่ต้นทาง ไม่ใช่แก้ไขภายหลัง

Comments

comments