Agentic AI: จุดบอดใหม่ของความมั่นคงปลอดภัยที่คุณอาจมองข้าม!
วันนี้ผมีประเด็นร้อนระดับโลกมาฝากกันครับ เกี่ยวกับสิ่งที่เรียกว่า "Agentic AI" หรือ AI ที่สามารถตัดสินใจและลงมือทำงานแทนเราได้โดยอัตโนมัติ ซึ่งตอนนี้มันกำลังกลายเป็น "จุดบอด" (Blind Spot) ขนาดใหญ่ที่ทีมความปลอดภัยไซเบอร์หลายคนยังตามไม่ทัน
ทำไมเราต้องกังวล?
ตอนนี้หลายองค์กรเริ่มเอา Agentic AI มาใช้แล้วครับ ไม่ว่าจะเป็นการให้มันเขียนโค้ด, ดึงข้อมูล หรือจัดการงานหลังบ้าน แต่สิ่งที่น่ากลัวคือ "เราป้องกันสิ่งที่เราไม่เข้าใจไม่ได้" เหมือนในอดีตที่เราเคยพลาดตอนยุค Cloud Computing มาแล้ว ถ้าทีม Security ไม่เข้าใจโครงสร้างของมัน ก็จะกลายเป็นนนอกที่คุยกับทีมวิศวกรไม่รู้เรื่อง และสุดท้ายธุรกิจก็จะเดินหน้าไปโดยทิ้งเรื่องควาปลอดภัยไว้ข้างหลังครับ
3 กลุ่มความเสี่ยงของ AI ที่คุณต้องรู้จัก
- AI ช่วยเขียนโค้ดและงานเอกสาร: เช่น Claude Code หรือ GitHub Copilot ที่นักพัฒนาแอบใช้กันอยู่แล้ว ควมเสี่ยงคือมันเข้าถึงข้อมูลอะไรในองค์กรเราได้บบ้าง?
- AI ที่เชื่อมต่อผ่าน MCP (Model Context Protocol): ตัวนี้แสบมากครับ เพราะมันสามารถเชื่อมต่อกับอีเมลหรือตารางงานได้ ลองคิดดูว่าถ้ามีคนส่งนัดหมายแฝง "คำสั่งอันตราย" (Prompt Injection) มาให้ AI อ่าน แล้ว AI ดันทำตามคำสั่งนั้นโดยอัตโนมัติล่ะ? นี่คือช่องโหว่ใหม่แกะกล่องเลยครับ
- AI ที่ใครๆ ก็สร้างเองได้: สมัยก่อนจะสร้างเครื่องมือต้องเขียนโค้ดเก่ง แต่เดี๋ยวนี้ใครๆ ก็สร้าง Agent เองได้ ฝ่ายการตลาดหรือบัญชีอาจจะสร้าง AI มาช่วยงานโดยไม่ได้ผ่านการตรวจสอบจากทีมไอที กลายเป็นความเสี่ยงสะสมในองค์กรครับ
ทางรอดคือต้อง "ลงมือทำ"
- ต้องพูดภาษา AI ให้เป็น: ต้องเข้าใจสถาปัตยกรรมของมัน ไม่ใช่แค่เป็นนักวิทยาศาสตร์ข้อมูล แต่ต้องรู้ว่ามันรับ-ส่งข้อมูลยังไง
- คุมขอบเขต (Scope) ให้ชัด: AI จัดการตารางงาน ก็ไม่ควรมีสิทธิ์เข้าถึงระบบหลังบ้านหรือการสั่งงานลึกๆ (Terminal)
- เรียนรู้และทดลอง: อย่ารอให้ปัญหาเกิด ทีมความปลอดภัยต้องลองสร้าง Agent ขึ้นมาเองเพื่อศึกษาจุดอ่อนของมัน
#ดรกฤษฎาแก้ววัดปริง #ไทยสมาร์ทซิตี้ #SmartCity #DRKRIT #สมาร์ทซิตี้คลิก