Explainability Statement คืออะไร? ทำไมองค์กรที่ใช้ AI ต้องมี พร้อมเชื่อมโยง ISO/IEC 42001 เพื่อเสริมความโปร่งใส ความน่าเชื่อถือ และการบริหารความเสี่ยงของ AI อย่างมีประสิทธิภาพ

1. บทนำ

ในช่วงหลายปีที่ผ่านมา ปัญญาประดิษฐ์ (Artificial Intelligence: AI) ได้กลายเป็นเทคโนโลยีสำคัญที่องค์กรทั่วโลกนำมาใช้เพื่อเพิ่มประสิทธิภาพในการดำเนินงาน การวิเคราะห์ข้อมูล และการตัดสินใจเชิงธุรกิจ ระบบ AI สามารถประมวลผลข้อมูลจำนวนมากและสร้างผลลัพธ์ที่มีประโยชน์ต่อองค์กรได้อย่างรวดเร็ว อย่างไรก็ตาม ระบบ AI โดยเฉพาะที่ใช้ Machine Learning หรือ Deep Learning มักถูกเรียกว่าเป็น “Black Box” เนื่องจากผู้ใช้งานอาจไม่สามารถเข้าใจได้ว่าระบบได้ตัดสินใจอย่างไรหรือใช้เหตุผลใดในการสร้างผลลัพธ์

ปัญหาดังกล่าวทำให้เกิดความกังวลในด้านความโปร่งใส ความยุติธรรม และความรับผิดชอบของระบบ AI ดังนั้นแนวคิดเรื่อง Explainability หรือความสามารถในการอธิบายผลลัพธ์ของ AI จึงกลายเป็นประเด็นสำคัญในด้านการกำกับดูแล AI ในระดับสากล หนึ่งในเครื่องมือที่องค์กรสามารถใช้เพื่อสนับสนุนความโปร่งใสคือ ชุดเอกสารนี้เป็นเอกสารที่อธิบายรายละเอียดเกี่ยวกับระบบ AI เช่น วัตถุประสงค์ของระบบ วิธีการทำงานของโมเดล ข้อมูลที่ใช้ และข้อจำกัดของระบบ

ในขณะเดียวกัน มาตรฐานสากล ISO/IEC 42001: Artificial Intelligence Management System (AIMS) ได้ถูกพัฒนาขึ้นเพื่อช่วยให้องค์กรสามารถกำกับดูแล AI อย่างเป็นระบบ โดยเน้นหลักการสำคัญ เช่น ความโปร่งใส ความรับผิดชอบ และการจัดการความเสี่ยงของ AI  จึชุดเอกสารนี้จึงเป็นเครื่องมือที่สำคัญในการสนับสนุนการปฏิบัติตามข้อกำหนดของ ISO/IEC 42001 และช่วยให้องค์กรสามารถแสดงให้เห็นถึงการใช้ AI อย่างมีความรับผิดชอบ

 

2. Explainability Statement คืออะไร

Explainability Statement คือเอกสารที่อธิบายรายละเอียดเกี่ยวกับการทำงานของระบบ AI เพื่อให้ผู้มีส่วนเกี่ยวข้องสามารถเข้าใจได้ว่าระบบทำงานอย่างไร และเหตุใดจึงสร้างผลลัพธ์ในลักษณะนั้น เอกสารดังกล่าวมักประกอบด้วยข้อมูลสำคัญ เช่น

  • วัตถุประสงค์ของระบบ AI
  • ขอบเขตการใช้งานของระบบ
  • ข้อมูลที่ใช้เป็น input ของโมเดล
  • วิธีการทำงานของโมเดลหรืออัลกอริทึม
  • วิธีตีความผลลัพธ์ของระบบ
  • ข้อจำกัดของระบบ AI
  • การกำกับดูแลโดยมนุษย์
  • วิธีการจัดการความเสี่ยงของ AI

ชุดเอกสารนี้จึงทำหน้าที่เป็น เครื่องมือด้านความโปร่งใส (Transparency Mechanism) ที่ช่วยให้ผู้ใช้งาน ผู้ตรวจสอบ และหน่วยงานกำกับดูแลสามารถเข้าใจระบบ AI ได้อย่างชัดเจน

 

3. เหตุผลที่องค์กรควรจัดทำ Explainability Statement

3.1 การสร้างความโปร่งใสและความไว้วางใจ

ระบบ AI ที่ไม่สามารถอธิบายการตัดสินใจได้อาจทำให้ผู้ใช้งานเกิดความไม่มั่นใจ โดยเฉพาะในกรณีที่ AI ถูกใช้ในการตัดสินใจที่มีผลกระทบต่อบุคคล เช่น การพิจารณาสินเชื่อ การคัดเลือกบุคลากร หรือการประเมินความเสี่ยง

3.2 การสนับสนุน AI Governance

องค์กรที่ใช้ AI จำเป็นต้องมีโครงสร้างการกำกับดูแลที่เหมาะสม ชุดเอกสารนี้แช่วยสนับสนุนการกำกับดูแลในหลายด้าน เช่น การตรวจสอบระบบ AI การตรวจสอบความถูกต้องของโมเดล การติดตามความเสี่ยงของ AI นอกจากนี้เอกสารยังช่วยให้ผู้บริหารสามารถเข้าใจระบบ AI และสามารถกำหนดนโยบายหรือมาตรการควบคุมได้อย่างเหมาะสม

  • การลดความเสี่ยงด้านกฎหมายและจริยธรรม

การใช้ AI อาจก่อให้เกิดความเสี่ยง เช่น การเลือกปฏิบัติ (algorithmic bias) การตัดสินใจที่ไม่เป็นธรรม การละเมิดความเป็นส่วนตัว Explainability Statement ช่วยให้องค์กรสามารถอธิบายการทำงานของ AI ในกรณีที่เกิดข้อร้องเรียนหรือการตรวจสอบจากหน่วยงานกำกับดูแล

4. ความเชื่อมโยงกับข้อกำหนด ISO/IEC 42001

Explainability Statement มีความเกี่ยวข้องโดยตรงกับข้อกำหนดหลายส่วนของมาตรฐาน ISO/IEC 42001 โดยเฉพาะในเรื่องการกำกับดูแล AI ความโปร่งใส และการจัดการความเสี่ยง  Mapping ระหว่างชุดเอกสารนี้กับข้อกำหนดสำคัญของมาตรฐาน

4.1 Transparency และ Explainability

ISO/IEC 42001 เน้นหลักการ Responsible AI ซึ่งรวมถึงความโปร่งใสและความสามารถในการอธิบายระบบ AI โดยชุดเอกสารนี้จะช่วยให้องค์กรสามารถอธิบาย

  • วิธีการทำงานของ AI
  • ปัจจัยที่ส่งผลต่อผลลัพธ์
  • ข้อจำกัดของระบบ

ISO 42001 Controls ที่เกี่ยวข้อง

  • Annex B.9.3 – Responsible AI objectives
  • Annex B.9.4 – Transparency and explainability
  • Clause 8 – Operation of AI systems

4.2 AI Risk Management

ISO 42001 กำหนดให้องค์กรต้องมีการระบุและจัดการความเสี่ยงที่เกี่ยวข้องกับ AI ซึ่งชุดเอกสารนี้จะช่วยสนับสนุนกระบวนการนี้โดยการอธิบาย

  • ความเสี่ยงที่อาจเกิดจากโมเดล
  • ข้อจำกัดของ AI
  • สถานการณ์ที่ AI อาจให้ผลลัพธ์ที่ผิดพลาด

ISO 42001 Controls ที่เกี่ยวข้อง

  • Clause 6 – Planning (Risk and opportunity management)
  • Annex B.3 – AI risk management process
  • Annex B.5 – Impact assessment of AI systems

 

5. แนวทางการปรับใช้ในอนาคต

ในอนาคต ชุดเอกสารนี้จะมีบทบาทสำคัญมากขึ้น เนื่องจากหลายประเทศกำลังพัฒนากฎหมายเกี่ยวกับ AI เช่น EU AI Act องค์กรควรพิจารณาแนวทางต่อไปนี้

5.1 บูรณาการกับระบบบริหาร ควรถูกผสานเข้ากับ

  • AI risk management
  • AI lifecycle management
  • AI governance

5.2 ใช้เป็นเครื่องมือด้าน transparency ซึ่งองค์กรสามารถเผยแพร่ในรูปแบบ

  • AI transparency report
  • model card
  • algorithmic transparency document

5.3 สนับสนุนการตรวจสอบและการกำกับดูแล โดยชุดเอกสารนี้ควรเป็นส่วนหนึ่งของ

  • AI audit
  • regulatory compliance
  • internal governance

 

บทสรุป

Explainability Statement เป็นเครื่องมือสำคัญที่ช่วยให้องค์กรสามารถสร้างความโปร่งใสและความน่าเชื่อถือในการใช้ AI โดยการอธิบายการทำงานของระบบ ข้อมูลที่ใช้ และข้อจำกัดของโมเดล การจัดทำชุดเอกสารนี้ยังช่วยให้องค์กรสามารถสนับสนุนการปฏิบัติตามมาตรฐานสากล เช่น ISO/IEC 42001 โดยเฉพาะในด้าน transparency, accountability และ AI risk management

ในอนาคต การใช้ AI อย่างมีความรับผิดชอบจะกลายเป็นข้อกำหนดสำคัญขององค์กรทั่วโลก องค์กรที่สามารถอธิบายการทำงานของ AI ได้อย่างชัดเจนจะมีความได้เปรียบทั้งในด้านความเชื่อมั่นของผู้ใช้และการปฏิบัติตามกฎระเบียบ ดังนั้นชุดเอกสารนี้ควรถูกพัฒนาให้เป็นส่วนหนึ่งของระบบบริหาร AI ขององค์กร และควรถูกนำมาใช้ร่วมกับมาตรฐานการกำกับดูแล AI เช่น ISO/IEC 42001 อย่างเป็นระบบ

บริการให้คำปรึกษาและการรับรองมาตรฐาน ISO/IEC 42001:2023

แหล่งข้อมูลอ้างอิง คลิก



หากคุณพร้อมจะยกระดับองค์กรให้ก้าวล้ำกว่าเดิม วันนี้คือจุดเริ่มต้นที่ดีที่สุด — เริ่มศึกษา วางแผน และลงมือสร้างระบบบริหารจัดการความมั่นคงปลอดภัยสารสนเทศที่แข็งแกร่งไปกับเรา

ACinfotec พร้อมเป็นพาร์ตเนอร์เคียงข้างคุณ ตั้งแต่ก้าวแรก… จนถึงการรับรอง

รับคำปรึกษาเบื้องต้นโดยไม่เสียค่าใช้จ่าย

Email: [email protected] หรือโทร 02-670-8980-4