AI & Human Oversight ตามบริบทของ EU AI Act และมาตรฐาน ISO/IEC 42001 เมื่อปัญญาประดิษฐ์ (AI) ก้าวพ้นจากการเป็นเครื่องมือสนับสนุน ไปสู่การเป็นกลไกหลักที่ขับเคลื่อนโครงสร้างพื้นฐานสำคัญของประเทศ (Critical Infrastructure) เช่น ระบบจ่ายไฟฟ้าอัตโนมัติ (Smart Grid) ระบบการจราจรอัจฉริยะ ระบบตรวจจับใบหน้า ระบบวินิจฉัยและคัดกรองผู้ป่วย ระบบควบคุมโครงข่ายโทรคมนาคม และระบบเฝ้าระวังภัยคุกคามทางไซเบอร์แห่งชาติ ความท้าทายสำคัญคือเราจะยังคงไว้ซึ่ง “การกำกับดูแลโดยมนุษย์อย่างมีนัยสำคัญ (Effective Human Oversight)” ได้อย่างไร

การนำ AI มาใช้ในโครงสร้างพื้นฐานสำคัญของประเทศ คือการมอบหมายอำนาจการตัดสินใจที่ส่งผลกระทบต่อความมั่นคงและความปลอดภัยสาธารณะให้กับระบบที่เรียนรู้และปรับเปลี่ยนพฤติกรรมได้เอง หากระบบผิดพลาดหรือถูกโจมตี ผลกระทบอาจรุนแรงถึงขั้นหายนะระดับประเทศ บทความนี้วิเคราะห์บทบาทสำคัญของมนุษย์ในการกำกับดูแล AI ในบริบทโครงสร้างพื้นฐานสำคัญของประเทศ ภายใต้กรอบของ EU AI Act และมาตรฐาน ISO/IEC 42001

1. AI & Human Oversight ในบริบทของ Critical Infrastructure: ความเสี่ยงที่ไม่อาจมองข้าม

1.1 ความหมายและการจำแนกตาม EU AI Act

ภายใต้ EU AI Act ระบบ AI ที่ใช้เป็นส่วนประกอบด้านความปลอดภัยในการจัดการโครงสร้างพื้นฐานดิจิทัลที่สำคัญ จัดอยู่ในกลุ่ม “ความเสี่ยงสูง” (High-Risk AI Systems) ตาม Annex III ข้อ 2 การจำแนกนี้มีผลผูกพันให้ผู้เกี่ยวข้องต้องปฏิบัติตามข้อกำหนดเข้มงวด อาทิ การจัดตั้งระบบบริหารความเสี่ยง การกำกับดูแลข้อมูลคุณภาพสูง และที่สำคัญคือ การออกแบบระบบให้มีการกำกับดูแลโดยมนุษย์ที่มีประสิทธิภาพ (มาตรา 14)

1.2 ผลกระทบเมื่อ AI ใน Critical Infrastructure ล้มเหลว

หากระบบจำหน่ายไฟฟ้าอัจฉริยะที่ใช้ AI เกิดภาพหลอนหรือตัดสินใจผิดพลาด ผลอาจไม่ใช่แค่ไฟดับในพื้นที่ แต่อาจนำไปสู่ Blackout วงกว้างกระทบโรงพยาบาลและการคมนาคม การศึกษาจาก Harvard Journal of Law & Technology ชี้ว่าเมื่อ AI ทำงานด้วยความเร็วเหนือมนุษย์ “การมีมนุษย์อยู่ในวงจร” อย่างเดียวไม่พอ หากมนุษย์ไม่มีความสามารถรับรู้และแทรกแซงทันท่วงที

 

2. การกำกับดูแลโดยมนุษย์: หัวใจของความปลอดภัยตาม EU AI Act

2.1 ข้อกำหนดตามมาตรา 14 (Human Oversight)

มาตรา 14 ของ EU AI Act เป็นข้อบังคับทางกฎหมายที่กำหนดให้ระบบ AI ความเสี่ยงสูงต้องถูกออกแบบให้มนุษย์กำกับดูแลได้อย่างมีประสิทธิภาพ สาระสำคัญประกอบด้วย:

ต้องระบุตัวบุคคลผู้รับผิดชอบที่ชัดเจน: ต้องมีบุคคลที่ได้รับการระบุชื่อ อำนาจ และการฝึกอบรมมาเป็นอย่างดี

ความสามารถในการแทรกแซงแบบทันที (Real-time Intervention): บุคคลนั้นต้องติดตาม เข้าใจ และแทรกแซงการทำงานของระบบได้ทันที โดยเฉพาะในสถานการณ์ฉุกเฉิน เสมือนมี “ปุ่มหยุดฉุกเฉิน” (Kill Switch)

การสร้างร่องรอยการตรวจสอบได้ (Audit Trail): การแทรกแซงทุกครั้งต้องถูกบันทึกอย่างโปร่งใสและตรวจสอบได้

2.2 “Paper Oversight” ยุคใหม่ไม่มีจริง

การกำกับดูแลที่ทำเพียงบนกระดาษจะไม่เป็นที่ยอมรับอีกต่อไป องค์กรที่นำ AI ไปใช้ใน Critical Infrastructure ต้องพิสูจน์ให้ได้ว่ากลไกการควบคุมโดยมนุษย์ “มีชีวิต” พร้อมทำงานได้จริงตลอด 24 ชั่วโมง และบุคคลที่รับผิดชอบมีอำนาจพอที่จะ “ดึงเบรก” ก่อนความเสียหายลุกลาม

 

3. ISO/IEC 42001: เครื่องมือเปลี่ยนข้อกฎหมายสู่การปฏิบัติ

หาก EU AI Act คือกฎหมายที่บอกว่า “ต้องทำอะไร” มาตรฐาน ISO/IEC 42001 คือคู่มือการจัดการที่บอกว่า “จะทำให้สำเร็จได้อย่างไร” 3.1 มาตรการควบคุม (Controls) ที่เกี่ยวข้องกับการควบคุมโดยมนุษย์

ISO/IEC 42001 มีภาคผนวก A ซึ่งเป็นชุดมาตรการควบคุม 38 ข้อ มาตรการที่เกี่ยวข้องกับการควบคุมโดยมนุษย์ประกอบด้วย:

ภาคผนวก A ISO 42001

 

4. มุมมองทางกฎหมาย: ความท้าทายของ “มนุษย์” ในฐานะ “Liability Sponge”

4.1 กับดักของ Automation Bias และ Vigilance Decrement

Harvard Journal of Law & Technology ชี้ถึงปัญหาสำคัญสองประการ:

Automation Bias: มนุษย์ไว้ใจระบบอัตโนมัติเกินเหตุ แม้มีหลักฐานขัดแย้งก็ตาม จากการทดลอง ผู้เข้าร่วมเดินตามหุ่นยนต์นำทางไปยังทางออกที่ถูกปิดกั้น ทั้งที่เห็นมาก่อนว่าหุ่นยนต์ทำงานผิดพลาด

Vigilance Decrement: เมื่อมนุษย์ถูกสั่งให้เฝ้าติดตามระบบที่ทำงานได้ดีเป็นส่วนใหญ่ สมองจะค่อยๆ ผ่อนคลายและสูญเสียสมาธิ ดังอุบัติเหตุรถยนต์ไร้คนขับของ Uber ปี 2018 ที่ “ผู้ขับขี่นิรภัย” ดูโทรทัศน์ในมือถือขณะเกิดเหตุ สิ่งนี้สร้าง “กับดักทางกฎหมาย” หากกฎหมายกำหนดให้มนุษย์ต้องเฝ้าติดตามระบบที่ซับซ้อนเกินกว่าจะเฝ้าติดตามได้อย่างมีประสิทธิภาพ กฎหมายนั้นกำลังกำหนดให้มนุษย์ต้องละเมิดหน้าที่โดยปริยาย เมื่อเกิดเหตุการณ์วิกฤติ มนุษย์อาจกลายเป็น “Liability Sponge” (ฟองน้ำดูดความรับผิด) ที่รับผิดชอบแทนความบกพร่องของระบบที่ออกแบบมาไม่ดี

4.2 การตีความหน้าที่ในการดูแล (Duty of Care) สำหรับ Critical infrastructure

สำหรับ AI ใน Critical infrastructure โอกาสเกิดความเสียหายและความรุนแรงมีค่าสูงมาก ดังนั้นภาระในการป้องกันจึงต้องสูงตามไปด้วย องค์กรต้องลงทุนในระบบ Human-AI Collaboration ที่ดี ออกแบบ Dashboard ที่แจ้งเตือนมนุษย์อย่างมีประสิทธิภาพ และฝึกซ้อมสถานการณ์ฉุกเฉินสม่ำเสมอ หากละเลย ศาลอาจตีความว่าองค์กรละเลยหน้าที่และต้องรับผิดชอบต่อความเสียหาย

5. ข้อเสนอแนะเชิงนโยบายและการปฏิบัติ

5.1 สำหรับผู้ออกนโยบาย (รัฐ)

กำหนดนิยาม Critical Infrastructure ด้าน AI ให้ชัดเจน ครอบคลุมระบบ AI ที่ทำหน้าที่สำคัญในโครงสร้างพื้นฐาน ส่งเสริมการรับรองมาตรฐาน โดยกำหนดให้องค์กร Critical Infrastructure ต้องได้รับการรับรอง ISO/IEC 42001

5.2 สำหรับองค์กรผู้ใช้งานและพัฒนา AI ใน Critical Infrastructure

  • ออกแบบระบบโดยให้มนุษย์เป็นศูนย์กลาง (Human-Centered AI Design): ออกแบบวงจรการแทรกแซงและกลไกการสื่อสารระหว่างมนุษย์กับ AI ตั้งแต่ขั้นตอนการวางแผน
  • ลงทุนใน “Glass-Box” มากกว่า “Black-Box”: ให้ความสำคัญกับ AI ที่สามารถอธิบายได้ (Explainable AI – XAI) เพื่อให้มนุษย์เข้าใจเหตุผลและคาดการณ์ความผิดพลาดล่วงหน้า
  • ฝึกซ้อมการแทรกแซงอย่างสม่ำเสมอ: มีการซักซ้อมแผนเผชิญเหตุสำหรับสถานการณ์ที่ AI ทำงานผิดปกติหรือถูกโจมตีทางไซเบอร์
  • จัดการความเสี่ยงจากผู้พัฒนาบุคคลที่สาม: ตรวจสอบให้แน่ใจว่าผู้ขายมีมาตรฐานการควบคุมโดยมนุษย์ที่เท่าเทียมกัน มิฉะนั้นองค์กรต้นทางยังคงต้องรับผิดชอบต่อความเสียหาย

 

บทสรุป

การที่ AI กลายเป็นส่วนหนึ่งของ Critical Infrastructure เป็นทั้งโอกาสและความท้าทาย ดังนั้น EU AI Act จึงให้ความสำคัญตามมาตรา 14 ที่กำหนดให้ “การกำกับดูแลโดยมนุษย์” เป็นข้อบังคับที่มิอาจต่อรอง ขณะที่ ISO/IEC 42001 ให้เครื่องมือและมาตรการควบคุมอย่างเป็นรูปธรรม อย่างไรก็ตาม บทเรียนจาก Harvard ชี้ว่า การมีมนุษย์อยู่ในวงจรเพียงอย่างเดียวไม่ใช่คำตอบสุดท้าย มนุษย์มีข้อจำกัดด้านการรับรู้ กฎหมายและมาตรฐานจึงต้องพัฒนาไปสู่การกำหนดหน้าที่ให้องค์กร “ออกแบบระบบให้เหมาะสมกับมนุษย์” มิใช่คาดหวังให้มนุษย์ปรับตัวเข้ากับระบบที่ซับซ้อนเกินเอื้อม

ท้ายที่สุด ในยุคที่ AI อาจกลายเป็นสมองใหญ่ของประเทศ บทบาทของมนุษย์มิใช่การเป็นผู้กดปุ่ม แต่คือการเป็น “ผู้กำกับดูแลที่มีความหมาย” ซึ่งหมายถึงการมีอำนาจ ความรู้ เครื่องมือ และที่สำคัญที่สุดคือความพร้อมที่จะแทรกแซงเพื่อปกป้องผลประโยชน์สาธารณะ ก่อนที่ความเสียหายจะเกินเยียวยา

 

เอกสารอ้างอิง

– European Union. (2024). *Artificial Intelligence Act (Regulation (EU) 2024/1689)*

– Htin, N. M. (2026). Redefining the Standard of Human Oversight for AI Negligence. Harvard Journal of Law & Technology

บริการให้คำปรึกษาและการรับรองมาตรฐาน ISO/IEC 42001:2023

แหล่งข้อมูลอ้างอิง คลิก



หากคุณพร้อมจะยกระดับองค์กรให้ก้าวล้ำกว่าเดิม วันนี้คือจุดเริ่มต้นที่ดีที่สุด — เริ่มศึกษา วางแผน และลงมือสร้างระบบบริหารจัดการความมั่นคงปลอดภัยสารสนเทศที่แข็งแกร่งไปกับเรา

ACinfotec พร้อมเป็นพาร์ตเนอร์เคียงข้างคุณ ตั้งแต่ก้าวแรก… จนถึงการรับรอง

รับคำปรึกษาเบื้องต้นโดยไม่เสียค่าใช้จ่าย

Email: [email protected] หรือโทร 02-670-8980-4