ไซเบอร์จีนิคส์ ชี้ AI Security และ Risk Management เสาหลักสำคัญ สู่ความยั่งยืนแห่งอนาคตของเศรษฐกิจดิจิทัลไทย
ในยุคที่ ปัญญาประดิษฐ์ (AI) ได้เข้ามามีบทบาทในการขับเคลื่อนทุกภาคส่วนของเศรษฐกิจดิจิทัล ทั้งด้านการเงิน, สุขภาพ, การขนส่ง และอุตสาหกรรมการผลิต ความสามารถในการใช้ AI เพื่อเพิ่มประสิทธิภาพการทำงานและสร้างนวัตกรรมกลายเป็นปัจจัยสำคัญต่อความสามารถในการแข่งขันของประเทศ แต่ในขณะเดียวกัน ภัยคุกคามทางไซเบอร์ที่เกี่ยวข้องกับ AI ก็กำลังเพิ่มขึ้นอย่างรวดเร็ว ทุกวันนี้อาชญากรไซเบอร์ใช้ Generative AI (GenAI) ในการพัฒนา Phishing Campaign, Deepfake และ Zero-Day Exploit ที่มีความซับซ้อนและเข้าถึงผู้ใช้ได้ง่ายกว่าเดิม ซึ่งสิ่งเหล่านี้ล้วนสร้างความเสี่ยงให้กับองค์กรทั้งในด้านข้อมูลชื่อเสียงและความน่าเชื่อถือ
นายอัตพล พยัคฆ์ รักษาการกรรมการผู้จัดการ บริษัท ไซเบอร์จีนิคส์ จำกัด (CyberGenics) ในเครือของบริษัท จีเอเบิล จำกัด (มหาชน) ผู้ให้บริการด้าน Cybersecurity แบบครบวงจร ได้เผยว่า “AI Security ไม่ใช่แค่ปกป้อง AI แต่ต้องปกป้องเศรษฐกิจดิจิทัลในระดับประเทศได้จริง เพราะ AI Security ไม่ใช่แค่การป้องกันการเจาะระบบหรือปกป้องโมเดล AI เท่านั้น แต่ต้องสามารถบริหารจัดการความเสี่ยง (Risk Management) ที่เกี่ยวข้องกับข้อมูล Training Data ที่ใช้ในการฝึกระบบปัญญาประดิษฐ์ (AI) เพื่อให้สามารถเรียนรู้และทำความเข้าใจรูปแบบหรือกฎเกณฑ์ต่างๆ, โมเดล AI ระบบหรือโปรแกรมที่ถูกสร้างขึ้นจากกระบวนการเรียนรู้ข้อมูล (Training Data) เพื่อนำมาใช้ในการวิเคราะห์ ทำนาย ตัดสินใจ หรือทำงานแทนมนุษย์ในบางด้าน รวมถึงโครงสร้างพื้นฐาน (Infrastructure) ที่สนับสนุนการทำงานของ AI ทั้งระบบ
โดยองค์กรชั้นนำระดับโลกอย่าง World Economic Forum (WEF) และ NIST ได้เน้นย้ำถึงความสำคัญ
ของ AI Governance และการสร้างความไว้วางใจ (AI Trust) ผ่านกรอบการทำงานต่างๆ เช่น
- NIST AI RMF (Risk Management Framework): เพื่อระบุความเสี่ยงและควบคุมAI ให้ปลอดภัยและโปร่งใส
- ISO 42001:2023 AIMS (AI Management System): มาตรฐานสำหรับบริหารจัดการ AI ที่สอดคล้องกับกฎหมายและจริยธรรม
- OWASP Top 10 LLM Risks: ระบุช่องโหว่หลักของ AI ประเภท Large Language Models เช่น Prompt Injection, Data Leakage ฯลฯ
จากข้อมูลของ World Economic Forum (WEF) ยังพบกรณีศึกษาที่น่าสนใจอย่าง AI-Enhanced Fraud กับ Deepfake ในเอเชียตะวันออกเฉียงใต้ ที่มีการเผยแพร่เรื่องราวของ Arup บริษัทวิศวกรรมระดับโลกถูกหลอกลวงโดยอาชญากรที่ใช้ Deepfake Video และ AI-Generated Voice ในการปลอมแปลงตัวตนผู้บริหารระดับสูงเพื่อให้พนักงานโอนเงินหลายล้านดอลลาร์โดยไม่มีการแฮกระบบ IT เลยแม้แต่น้อย เหตุการณ์นี้แสดงให้เห็นว่า AI-Enhanced Social Engineering เป็นภัยคุกคามที่องค์กรในประเทศไทยต้องเตรียมรับมือ โดยเน้นทั้ง Cybersecurity Awareness และมาตรการหรือแนวทางที่ถูกออกแบบมาเพื่อปกป้องระบบ AI จากการโจมตี ความเสียหาย การรั่วไหลของข้อมูล หรือการถูกใช้งานในทางที่ผิด (AI Security Measures)
ซึ่งแนวทางการบริหาร AI Security ที่จะช่วยเสริมสร้างความแข็งแกร่งให้กับเศรษฐกิจดิจิทัลไทยในอนาคต
ได้อย่างยั่งยืนมีอยู่ 4 องค์ประกอบหลัก ได้แก่
- การประเมินความเสี่ยง (Risk Assessment) โดยมีการวิเคราะห์ความเสี่ยงจากการใช้งาน AI ในทุกมิติ ทั้งในด้านเทคโนโลยี, จริยธรรม และกฎหมาย ฯลฯ
- การเสริมความปลอดภัย (Enhance Security Controls) โดยใช้แนวคิด Secure by Design ตั้งแต่การพัฒนา AI เช่น การเข้ารหัสข้อมูล หรือการป้องกัน Prompt Injection
- ความร่วมมือระดับสากล (Global Collaboration) การแบ่งปันข้อมูลข่าวสารเกี่ยวกับภัยคุกคาม (Threat Intelligence) และสร้างมาตรฐานความปลอดภัยทางไซเบอร์ร่วมกับองค์กรระดับโลก
- การพัฒนาศักยภาพบุคลากร (Human Capacity Building) ผ่านการจัดฝึกอบรมและเสริมทักษะบุคลากรให้มีความเชี่ยวชาญในทักษะด้าน AI Security และ AI Governance
หากนำทั้ง 4 องค์ประกอบหลักดังกล่าว มาเชื่อมต่อเข้ากับบริบทของภาครัฐและภาคธุรกิจองค์กรต่างๆ ถึงทิศทางแนวโน้ม AI Security ของประเทศไทยในปัจจุบัน ก็จะเห็นภาพในส่วนที่ต้องเสริม เพื่อยกระดับขีดความสามารถด้าน AI Security ในอีกหลายด้านทั้งในส่วนของ
1. นโยบายและกรอบกำกับดูแล AI Security นโยบายระดับชาติด้าน AI Governance และ Cybersecurity หลังจากที่ประเทศไทยได้ประกาศ “แผนยุทธศาสตร์ AI แห่งชาติ” โดยมีเป้าหมายขับเคลื่อนเศรษฐกิจด้วย AI ที่ยังขาดกรอบในการกำกับดูแลด้าน AI Trust, Risk, Security ที่ชัดเจนเหมือนเช่น EU AI Act หรือ NIST AI RMF ซึ่งในจุดนี้ประเทศไทยต้องเร่งพัฒนากรอบ AI Governance และ Cybersecurity ให้สอดคล้องกับมาตรฐานสากล เพื่อป้องกัน Shadow AI และเพิ่มความโปร่งใสในการใช้งาน AI ซึ่งเป็นโอกาสในการพัฒนากฎหมายและมาตรฐานที่เหมาะสมกับบริบทของประเทศไทย
2. การเสริมโครงสร้างพื้นฐานด้าน AI Security จากข้อมูลของ WEF Global Cybersecurity Outlook 2025 พบว่า 66% ขององค์กรทั่วโลกคาดว่า AI จะมีบทบาทสำคัญต่อความมั่นคงไซเบอร์ในปี 2025 แต่มีเพียง 37% เท่านั้น ที่มีมาตรการตรวจสอบความปลอดภัยของ AI ก่อนใช้งาน ดังนั้นธุรกิจองค์กรควรสร้าง AI Security Platform (AISP) เพื่อควบคุม Prompt Injection Detection, Model Risk Management, RAG Security, และ AI Supply Chain Security ครอบคลุมทั้ง Vector Database, Cloud Infrastructure และ AI Application เพื่อลดความเสี่ยงจากShadow AI และ Supply Chain Attack
3.การพัฒนาศักยภาพบุคลากรให้ได้รับการพัฒนาทักษะด้าน AI Security ในส่วนของบุคลากรทั้งภาครัฐและภาคธุรกิจองค์กรทักษะปัญหาเรื่องช่องว่างของทักษะด้านการรักษาความปลอดภัยในโลกไซเบอร์ (Cybersecurity Skills Gap) โดยเฉพาะ AI Security ยังคงเป็นปัญหาสำคัญที่จำเป็นจะต้องมีการพัฒนาหลักสูตร AI Security, AI Governance, และ AI Ethics เพื่อเสริมศักยภาพบุคลากรให้มากเพียงพอต่อความต้องการบุคลากรที่มีทักษะเฉพาะทางด้านนี้ในอนาคต
4. การสร้างความร่วมมือระดับภูมิภาคและสากล หากประเทศไทยได้ทำความร่วมมือกับ WEF AI Governance Alliance, CSA AI Safety เป็นต้น เพื่อแลกเปลี่ยนกรอบการวางนโยบาล และข้อมูลข่าวสารเกี่ยวกับภัยคุกคาม (Threat Intelligence) จะเป็นสิ่งหนึ่งที่ช่วยพัฒนามาตรฐาน AI Security ของไทยให้เป็นที่ยอมรับในระดับโลก”
“เพราะเทคโนโลยี AI ที่ปลอดภัยคือ กุญแจสู่อนาคตที่ยั่งยืนของประเทศไทย และ AI Security ก็ไม่ใช่ตัวเลือก แต่เป็นความจำเป็นที่มีส่วนสำคัญในการขับเคลื่อนเศรษฐกิจดิจิทัลของประเทศไทย ในฐานะผู้เชี่ยวชาญด้าน Cybersecurity ระดับองค์กรขนาดใหญ่ ไซเบอร์จีนิคส์ ยังคงเตรียมความพร้อมในการสนับสนุนธุรกิจองค์กรไทยในการบริหารจัดการความเสี่ยงด้าน AI และสร้าง AI Ecosystem ที่ปลอดภัยและไว้วางใจได้อยู่เสมอ เพื่อให้ธุรกิจองค์กรต่างๆ ในทุกภาคอุตสาหกรรมสามารถขับเคลื่อนการเติบโตสู่ทุกเป้าหมายได้อย่างยั่งยืน” นายอัตพล กล่าวทิ้งท้าย