Image generated by Microsoft Designer |
เราเข้าสู่ยุค AI boom ทำให้หลายองค์กรเริ่มนำเอา AI เข้ามาใช้ ทั้งที่พัฒนาขึ้นเองและจัดหาจากผู้ให้บริการต่างๆ ไม่ว่าจะด้วยเพราะมองเห็นโอกาส หรือกลัวตกกระแสก็ตาม แต่จากการที่ AI ถูกพัฒนาโดยเรียนรู้จากข้อมูล และสามารถตัดสินใจได้ด้วยตัวเอง แน่นอนว่าเทคโนโลยีใหม่ นำมาซึ่งโอกาสใหม่ๆ แต่ก็มีความเสี่ยงใหม่ๆ เช่นกัน ทำให้เราต้องไม่ลิมถีงความรับผิดชอบที่ตามมา เรื่อง AI Governance หรือ ธรรมาภิบาล AI เป็นแนวทางช่วยให้เราใช้ประโยชน์จาก AI ได้เต็มศักยภาพ โดยหลีกเลี่ยงความเสี่ยงที่อาจทำให้เกิดความเสียหายทั้งด้านชื่อเสียงและเงินทอง นอกจากนี้การมี AI Governance ที่ดีและเข้มแข็ง ยังเป็นการปลูกฝังให้องค์กร พัฒนาและใช้งาน AI โดยยึดมั่นใน 3 หลักการ ได้แก่ ความเชื่อถือ (trust), ความโปร่งใส (transparency), และความรับผิดชอบ (accountability)
บทความนี้รวบรวมขึ้นจาก 3 แหล่งได้แก่ AI Strategy and Governance online course โดย the University of Pennsylvania, เอกสาร Ethics and Governance of Artificial Intelligence for Health และ Ethics and Governance of Artificial Intelligence for Health: Guidance on large multi-modal models ของ องค์การอนามัยโลก หรือ WHO รวมถึงเนื้อหาบางส่วนจากร่างกฏหมาย The Algorithmic Accountability Act ของสหรัฐฯ และร่างกฏหมาย EU Artificial Intelligence Act ซึ่งอยู่ระหว่างการพิจารณา
Topics
1. ความเสี่ยงจากการใช้ AI
2. จรรยาบรรณด้าน AI
3. หลักการของ AI Governance
1. ความเสี่ยงจากการใช้ AI
เพื่อให้เห็นความสำคัญของการมีธรรมาภิบาล AI ก่อนอื่นเรามาดูกันว่า การใช้ AI นำมาซึ่งความเสี่ยงอะไรกันบ้าง [3]
- ผลลัพธ์ผิดพลาด นำเสนอข้อมูลผิดๆ หรือแม้แต่ให้ผลลัพธ์เชิงลบ (toxic response)
- ความอคติ ลำเอียง ซึ่งอาจเกิดจากการที่ AI เรียนรู้จากข้อมูลที่มีอคติอยู่ก่อนแล้ว
- ละเมิดความเป็นส่วนตัวของบุคคล อาจเกิดได้ทั้งจากข้อมูลที่ให้ AI เรียนรู้ หรือผลลัพธ์จาก AI เอง
- ผลกระทบต่อการจ้างงาน จากการที่ AI เข้าไปทดแทนทักษะและแรงงาน
- ทักษะความชำนาญที่ลดลง (skills degradation) การขาดวิจารณญาณ การไต่ตรอง อันเนื่องจากผู้ใช้งานเชื่อใน AI มากเกินไป (automation bias)
ส่วนในแง่ผลกระทบนั้น (impact) ขึ้นกับว่า AI ถูกใช้เพื่ออะไร ถ้าเราใช้ AI เพื่อแนะนำสินค้าบนเว็บไซต์ของร้านค้า การแนะนำสินค้าที่ไม่ดีพออาจมีผลแค่ลูกค้าไม่สนใจ การใช้ AI จึงไม่ช่วยให้ยอดขายดีขึ้น แต่ถ้าเป็นการแนะนำการใช้ยาให้แก่ผู้ป่วย อาจมีผลที่ร้ายแรงตามมาได้ ซึ่งการนำไปใช้งานในแต่ละประเภท ต่างมีวิธีการประเมินผลกระทบที่แตกต่างกัน
2. จรรยาบรรณด้าน AI
AI Governance นั้นจะอยู่บนพื้นฐานของจรรยาบรรณด้าน AI (AI ethics frameworks) Harvard report ได้ทำการรวบรวมจากองค์กรด้านเทคโนโลยีขนาดใหญ่ หน่วยงานทั้งภาครัฐและเอกชนในปี 2020 [1] ซึ่งสามารถสรุปได้ 8 ข้อดังนี้
- ความเป็นส่วนตัว (privacy)
- ความรับผิดชอบต่อผลที่เกิดขึ้น (accountability)
- ความรับผิดชอบตามบทบาทหน้าที่ (professional responsibility)
- ความปลอดภัย (safety and security)
- ความโปร่งใสและการอธิบายได้ (transparency and explainability)
- ความเป็นธรรม ไม่เลือกปฏิบัติ (fairness and non-discrimination)
- มนุษย์เป็นผู้ควบคุม (human control)
- ส่งเสริมคุณค่าของมนุษย์ (promotion of human values)
3. หลักการของ AI Governance
Professor Kartik Hosanagar [1] จาก Wharton School เสนอหลักการ AI governance ไว้น่าสนใจ และแนะนำให้จัดทำ AI inventory เพื่อให้เครื่องมือให้บริหารจัดการ AI ได้อย่างมีประสิทธิภาพ และเมื่อนำมารวมกับข้อเสนอแนะของ WHO AI Governance จึงพอสรุปหลักการได้ดังนี้
3.1 Human/User Controlมนุษย์เป็นผู้ควบคุม เมื่อระบบเกิดข้อผิดพลาด หรือพบความผิดปกติ ผู้ใช้งานต้องสามารถเลือกตัดสินใจและตอบสนองกลับให้ AI ปรับเปลี่ยน หรือแม้แต่แทรกแซงการทำงานได้ จากผลการศึกษาพบกว่า การให้ sense of control กับผู้ใช้งาน แม้แต่เพียงเล็กน้อย ช่วยเพิ่มความเชื่อถือในระบบได้มาก จากตัวอย่างที่เราเห็นได้ใกล้ๆตัว เช่นการให้ feedback กับ โฆษณาของ Facebook ว่าเราสนใจโฆษณาที่ระบบแสดงให้เราหรือไม่ ไปจนถึงการสั่งยกเลิกการทำงานของระบบขับเคลื่อนอัตโนมัติในยานยนต์บางรุ่น
การให้ feedback กับโฆษณาของ Facebook |
ความโปร่งใสและการอธิบายได้ เป็นปัจจัยสำคัญที่ทำให้เกิดความเชื่อถือในการใช้งาน AI แต่เมื่อมีคำถามว่า แค่ไหนถึงเรียกว่าโปร่งใสเพียงพอ จึงเกิดแนวคิด "calibrated transparency" คือการให้ข้อมูลพื้นฐานที่จำเป็นแก่ผู้ใช้งานรับทราบ เช่น ระบุให้ชัดเจนว่าผลลัพธ์ได้มาจากการใช้ AI, แจ้งให้ผู้ใช้งานรับทราบว่ากำลังมีปฏิสัมพันธ์กับ AI, ข้อมูลหรือปัจจัยที่มีผลในการตัดสินใจโดยอัลกอริธึมของ AI เช่น ข้อมูลปัจจัยที่ทำให้ได้รับอนุมัติสินเชื่อ ข้อมูลที่ทำให้เลือกสัมภาษณ์ผู้สมัคร เป็นต้น
ในแง่การอธิบายได้ยังแยกย่อยได้อีกดังนี้
Global interpretability การอธิบายได้ในระดับ high level เช่น โมเดลตัวนี้ มีข้อมูลหรือตัวแปรอะไรบ้างที่มีนัยสำคัญต่อการตัดสินใจ
Local interpretability การอธิบายในระดับย่อยแต่ละราย มีตัวแปรอะไรที่ทำให้ AI ตัดสินใจเช่นนั้น เช่น ทำไมผู้สมัครคนนี้ ถึงได้รับการเรียกสัมภาษณ์จากการที่ AI คัดเลือก
หลักการข้อนี้ยัง ทำให้เรามั่นใจว่า AI ไม่มีการใช้ข้อมูลที่ไม่เหมาะสม ข้อมูลส่วนบุคคลที่อ่อนไหว และยังช่วยให้เราสามารถใช้เพื่อพิจารณาว่าควรแทรกแซงการทำงานของ AI หรือไม่ รวมถีงการวิเคราะห์เพื่อแก้ปัญหาและการปรับจูน AI ให้ดีขึ้นได้ สำหรับตัวอย่างที่ดีใกล้ๆ ตัวเรา ดูได้จาก YouTube หัวข้อ "How YouTube recommends videos" ใน "Your data in YouTube" ได้
กำหนดบทบาทความรับผิดชอบอย่างชัดเจน กรณีที่เกิดข้อผิดพลาดจากการทำงานหรือตัดสินใจของ AI ต้องพิจารณาถึงผลกระทบในแง่ต่างๆ รวมถึงประเด็นทางกฏหมาย การแก้ไขข้อผิดพลาดต่างๆ
ในการใช้งาน AI นั้นผู้ใช้งานต้องมีความรู้ความเข้าใจ และได้รับการอบรมอย่างเหมาะสม รับทราบเงื่อนไข ข้อจำกัดในการใช้งาน เช่นในสภาวะไหนที่ไม่ควรใช้ อคติที่อาจเกิดขึ้นได้ ซึ่งผู้พัฒนาควรให้ข้อมูลแก่ผู้ใช้งาน เพื่อเป็นการป้องกันการประเมินความสามารถของ AI ที่เกินจริง และอาจนำไปสู่ automation bias ได้
ทั้งนี้ความรับผิดย่อมแตกต่างกันในบทบาทหน้าที่ต่างๆ เช่นกรณีบริษัทของเราใช้ AI จากผู้พัฒนารายหนึ่งเพื่อให้บริการลูกค้า เราไม่ได้รับผิดชอบต่อข้อมูลที่อาจะมีเรื่องลิขสิทธิ์ที่ผู้พัฒนานำไปใช้ในการพัฒนา AI เพื่อให้เห็นภาพชัดเจนขึ้น WHO มีการแบ่งบทบาทในห่วงโซ่ของการพัฒนา AI
การตรวจสอบอัลกอริธึม เป็นหลักการที่ไม่ได้เน้นแค่หลังการนำไปใช้ แต่ต้องตรวจสอบถึงความพร้อมก่อนการนำไปใช้อีกด้วย โดยความเข้มข้นในการตรวจสอบที่แตกต่างกันออกไปสำหรับความเสี่ยงในระดับต่างๆ สำหรับแนวทาง AI Audit นั้น Professor Kartik Hosanagar แนะนำว่าควรจัดทำ AI inventory สำหรับ ทุก machine learning model ที่มีใช้ทั้งหมดในองค์กร เพื่อให้สอดคล้องกับหลักการ AI Governance ข้างต้น ดังตัวอย่างในตาราง
- AI/ML Module Name: ชื่อหรือ id ของโมเดลหรือ AI
- Use Case: การใช้งาน AI หรือ กิจกรรมที่ AI เข้าไปตัดสินใจหรือทำงานให้เป็นอัตโนมัติ
- Automated Decision: ผลลัพธ์หรือข้อมูลที่เกิดจาก AI
- End-to-End Process: กระบวนการหรือขั้นตอนการทำงาน ที่มีการนำ AI เข้ามาใช้งาน
- Intent User Group: กลุ่มผู้ใช้งานหรือได้รับผลลัพธ์จากการใช้ AI
- Developer: ผู้พัฒนา AI
- Business Owner: เจ้าของ หน่วยงาน หรือผู้นำ AI ไปใช้งาน เป็นผู้มีความรับผิดชอบหรือกำหนดเกณฑ์ความรับผิดชอบในการใช้งาน
- Human Control: การควบคุมโดยผู้ใช้งาน มีหรือไม่ อย่างไร
- Risk Rating: ระดับขั้นความเสี่ยง ประเมินจากความน่าจะเป็นที่จะเกิดเหตุ (likelihood) และผลกระทบ (impact) ขึ้นกับประเภทธุรกิจและการนำไปใช้งาน
Inputs: ข้อมูลที่นำไปให้ AI เรียนรู้ และข้อมูลที่ป้อนให้ AI เพื่อการใช้งาน โดยพิจารณาการคัดเลือกข้อมูล, คุณภาพของข้อมูล, อคติหรือความลำเอียง (bias) ในข้อมูล, ไปจนถึงการใช้ข้อมูลส่วนบุคคล
(Machine Learning) Model: การใช้และจัดการโมเดล ความเหมาะสมในการเลือกใช้โมเดล เช่น สำหรับบางเรื่องที่ต้องการการอธิบายได้ ไม่ควรใช้ black box algorithm, การประเมินประสิทธิภาพหรือคุณภาพ (evaluation metrics), การกำหนดระดับคุณภาพที่ยอมรับได้เพื่อการใช้งาน และเพื่อปรับปรุงโมเดล, การทำ stress test, การทำ machine learning model bias test, กระบวนการในการเฝ้าติดตามคุณภาพของโมเดล ซึ่งอาจเปลี่ยนแปลงจากคุณภาพของข้อมูลที่เปลี่ยนไป, การทำ model management, การมี guardrail ที่จำเป็นในระบบ เป็นต้น
จากหลักการต่างๆ ของ AI governance ข้างต้น ในเวลานี้เราสามารถนำมาประยุกต์เลือกใช้ให้เหมาะสมกับการใช้งานของเราได้ ส่วนหนึ่งเนื่องจากกฏหมายที่เกี่ยวกับ AI ส่วนใหญ่ยังไม่ถูกบังคับใช้ แต่เราพอจะเห็นว่าเรื่องความรับผิดชอบ (accountability and responsibility) และอคติ (bias) ล้วนแต่เป็นประเด็นหลักที่ถูกเน้นย้ำในแนวปฏิบัติ (guidelines) และร่างกฏหมายต่างๆ นอกจากนี้เราควรระลึกไว้เสมอว่า AI มีการพัฒนาเปลี่ยนแปลงอย่างต่อเนื่อง ตัวโมเดลเองมีการเรียนรู้ (retraining) ด้วยข้อมูลใหม่ๆ อย่างสม่ำเสมอเช่นกัน
References:
[1] Wharton Online's AI Strategy and Governance by the University of Pennsylvania
[2] WHO's Ethics and Governance of Artificial Intelligence for Health
No comments: