- ความไม่โปร่งใสหรือ "กล่องดำ" ในปัญญาประดิษฐ์เกิดขึ้นเมื่อแบบจำลอง โดยเฉพาะแบบจำลองการเรียนรู้เชิงลึก ตัดสินใจในลักษณะที่ไม่สามารถอธิบายได้อย่างชัดเจน แม้แต่จากผู้สร้างเองก็ตาม
- การขาดความโปร่งใสนี้ก่อให้เกิดความเสี่ยงต่ออคติ การเลือกปฏิบัติ การสูญเสียความไว้วางใจ และปัญหาทางกฎหมายในการพิสูจน์ความเชื่อมโยงเชิงสาเหตุระหว่างระบบ AI กับอันตรายเฉพาะอย่าง
- ปัญญาประดิษฐ์ที่อธิบายได้ (Explainable AI หรือ XAI) ผสานรวมแบบจำลองที่ตีความได้และเทคนิคหลังการประมวลผล เช่น LIME หรือ SHAP เพื่อเปิดเผยกล่องดำบางส่วนและนำเสนอคำอธิบายที่เป็นประโยชน์แก่ผู้ใช้และหน่วยงานกำกับดูแล
- กฎระเบียบต่างๆ เช่น GDPR, กฎหมาย AI และคำสั่งเกี่ยวกับความรับผิดต่อผลิตภัณฑ์ กำหนดให้ระบบ AI ต้องได้รับการจดทะเบียน จัดทำเอกสาร และตรวจสอบ ทำให้การอธิบายได้เป็นข้อกำหนดทางจริยธรรมและทางกฎหมาย

La สิ่งที่เรียกกันว่า “กล่องดำ” ของปัญญาประดิษฐ์ ทุกครั้งที่เราพูดถึงเรื่องนี้ มันกลายเป็นหนึ่งในหัวข้อที่ถกเถียงกันมากที่สุด อัลกอริทึมที่ใช้ในการตัดสินใจ สำหรับเรา เราพึ่งพาระบบที่แนะนำยา อนุมัติสินเชื่อ หรือคัดกรองประวัติการทำงาน... แต่บ่อยครั้ง เราไม่รู้เลยว่าทำไมพวกเขาถึงตัดสินใจแบบนั้นแม้แต่ในกรณีที่ส่งผลกระทบโดยตรงต่อสิทธิของเราก็ตาม
การขาดความโปร่งใสนี้ไม่ใช่แค่ปัญหาทางเทคนิคเท่านั้น: เรื่องนี้มีนัยสำคัญทั้งในด้านจริยธรรม กฎหมาย สังคม และธุรกิจนั่นเป็นเหตุผลที่ทำให้มีการพูดถึงเรื่องความไม่โปร่งใสของอัลกอริทึม ความสามารถในการอธิบาย (XAI) และกฎระเบียบใหม่ๆ เช่น กฎหมาย AI ของยุโรป ซึ่งมีเป้าหมายเพื่อสร้างความเป็นระเบียบเรียบร้อยในด้านนี้ เรามาพิจารณาเรื่องนี้อย่างใจเย็นแต่ละเอียดกัน ความทึบแสงหรือ "กล่องดำ" ในปัญญาประดิษฐ์นั้นคืออะไรกันแน่?เหตุใดจึงเกิดสิ่งนี้ขึ้น ความเสี่ยงที่เกี่ยวข้องคืออะไร และมีความพยายามอย่างไรบ้างที่จะเปิดกล่องนั้นโดยไม่สูญเสียข้อดีของเทคโนโลยี
คำว่า “กล่องดำ” และ “ความไม่โปร่งใส” ในปัญญาประดิษฐ์หมายความว่าอย่างไร?
ในบริบทของปัญญาประดิษฐ์นั้น “กล่องดำ” คือระบบที่มีกระบวนการภายในที่ไม่สามารถเข้าใจได้อย่างชัดเจนเรารู้ว่าข้อมูลใดถูกป้อนเข้าไปและผลลัพธ์ที่ได้คืออะไร แต่ "เส้นทาง" ระหว่างกลางนั้นยากที่จะเข้าใจหรือเข้าถึงได้สำหรับมนุษย์ แม้กระทั่งนักพัฒนาซอฟต์แวร์หลายคนก็ตาม
ปรากฏการณ์นี้เกี่ยวข้องกับ... เป็นหลัก แบบจำลองการเรียนรู้ของเครื่องที่ซับซ้อน เช่น โครงข่ายประสาทเทียมเชิงลึกซึ่งทำงานกับพารามิเตอร์หลายพันหรือหลายล้านตัวที่กระจายอยู่ทั่วหลายชั้น แตกต่างจากอัลกอริธึมแบบคลาสสิกที่ใช้กฎเกณฑ์ที่โปร่งใส ในที่นี้โมเดลเรียนรู้จากประสบการณ์ ปรับน้ำหนักภายในเพื่อให้ ไม่มีใครสามารถติดตามได้ด้วยตนเองว่าการทำงานร่วมกันของเซลล์ประสาทแบบใดนำไปสู่การตอบสนองที่เฉพาะเจาะจง.
ความทึบแสงสามารถเกิดขึ้นได้สองวิธีที่แตกต่างกันแต่ส่งเสริมซึ่งกันและกัน: ในอีกด้านหนึ่ง เนื่องจาก บริษัทตัดสินใจที่จะไม่เปิดเผยรหัสหรือรายละเอียดของแบบจำลอง (เพื่อปกป้องทรัพย์สินทางปัญญาหรือเพื่อกลยุทธ์ทางการค้าโดยเฉพาะ) ในทางกลับกัน เนื่องจาก ความซับซ้อนทางคณิตศาสตร์และสถิติโดยธรรมชาติ ทำให้การตีความโดยสัญชาตญาณของมนุษย์แทบเป็นไปไม่ได้แม้ว่าโค้ดจะเป็นโอเพนซอร์สก็ตาม
ในกรณีที่สองนี้ เรามักจะพูดถึง “กล่องดำอินทรีย์“แม้แต่ผู้สร้างระบบเองก็ไม่สามารถอธิบายได้อย่างแม่นยำว่า AI เรียนรู้รูปแบบภายในอะไรบ้าง หรือมันรวมรูปแบบเหล่านั้นเข้าด้วยกันอย่างไรในแต่ละการตัดสินใจ สำหรับโมเดลการเรียนรู้เชิงลึก นี่เป็นเรื่องปกติ ไม่ใช่ข้อยกเว้น”
เมื่อต้องจัดการกับระบบเหล่านี้ เราสามารถสังเกตการเรียกใช้ได้อย่างชัดเจนเท่านั้น เลเยอร์ที่มองเห็นได้: เลเยอร์อินพุตและเลเยอร์เอาต์พุตเราเห็นข้อมูลที่ป้อนเข้าไป (รูปภาพ ข้อความ ตัวแปรตัวเลข) และการคาดการณ์หรือการจำแนกประเภทที่ได้ออกมา (อนุมัติ/ปฏิเสธ การวินิจฉัย คำแนะนำ…) แต่สิ่งที่เกิดขึ้นในหลายๆ กรณีล่ะ ชั้นกลางที่ซ่อนอยู่ เรื่องนี้ยังคงอยู่นอกเหนือความเข้าใจของเราไปมากทีเดียว
หลักการทำงานของโมเดลแบบกล่องดำ: โครงข่ายประสาทเทียมและการเรียนรู้เชิงลึก
เพื่อให้เข้าใจว่าความไม่ชัดเจนนี้มาจากไหน การทบทวน แม้จะเป็นเพียงภาพรวมกว้างๆ ก็ยังเป็นประโยชน์ โมเดลการเรียนรู้เชิงลึกมีโครงสร้างอย่างไร?แทนที่จะใช้สูตรอย่างง่ายเพียงสูตรเดียว ระบบเหล่านี้ประกอบขึ้นจากเครือข่ายประสาทเทียมที่มีหลายชั้น (บางครั้งอาจมีหลายร้อยชั้น) และมีเซลล์ประสาทจำนวนมากในแต่ละชั้น
โดยพื้นฐานแล้ว เซลล์ประสาทแต่ละเซลล์คือ บล็อกโค้ดขนาดเล็กที่รับข้อมูลเข้า ประมวลผลทางคณิตศาสตร์ และสร้างข้อมูลออกกระบวนการเรียนรู้เกี่ยวข้องกับการปรับน้ำหนักและค่าเกณฑ์ของเซลล์ประสาททั้งหมดเหล่านี้ผ่านตัวอย่างนับล้าน เพื่อให้ระบบลดข้อผิดพลาดในการทำนายให้น้อยที่สุด ปัญหาคือ เมื่อฝึกฝนเสร็จแล้ว ผลลัพธ์ที่ได้คือเครือข่ายพารามิเตอร์ขนาดมหึมาที่... มันไม่สอดคล้องกับแนวคิดของมนุษย์ที่ชัดเจนและแยกออกจากกัน.
เครือข่ายประเภทนี้สามารถรับข้อมูลได้ ข้อมูลดิบปริมาณมาก (ภาพ เสียง ข้อความอิสระ ข้อมูลจากเซ็นเซอร์) และตรวจจับรูปแบบที่มีความซับซ้อนอย่างมาก เช่น ความสัมพันธ์ที่ไม่เป็นเชิงเส้น การผสมผสานของคุณลักษณะที่ละเอียดอ่อนมาก ความสัมพันธ์ที่ขัดกับสัญชาตญาณของเรา ด้วยเหตุนี้ พวกเขาจึงสามารถ แปลภาษา สร้างภาพ เขียนข้อความที่เข้าใจได้ หรือวิเคราะห์ภาพเอ็กซ์เรย์ได้อย่างแม่นยำ เทียบเท่ากับของผู้เชี่ยวชาญ
แต่พลังนั้นก็มาพร้อมกับราคาที่ต้องจ่าย: การรับรู้ภายในที่พวกเขาสร้างขึ้น (ตัวอย่างเช่น การรับรู้ภายในที่มีชื่อเสียง) การฝังเวกเตอร์) คือโครงสร้างเชิงตัวเลขที่มีมิติสูงที่ สิ่งเหล่านี้ไม่ได้สอดคล้องโดยตรงกับหมวดหมู่พื้นฐานของมนุษย์เราอาจคาดเดาได้ว่าเวกเตอร์บางตัวจัดกลุ่มความหมายที่คล้ายคลึงกัน หรือเซลล์ประสาทบางเซลล์ตอบสนองต่อรูปแบบเฉพาะ แต่แผนที่ที่สมบูรณ์นั้นแทบจะจัดการไม่ได้เลยในทางปฏิบัติ
แม้ว่าโมเดลจะเป็นโอเพนซอร์สและเราสามารถมองเห็นโค้ดโปรแกรมทุกบรรทัดได้ก็ตาม นั่นไม่ได้หมายความว่าเราจะสามารถอธิบายทุกคำทำนายได้อย่างละเอียดเป็นไปได้ที่จะติดตามการไหลเวียนของข้อมูลระหว่างเลเยอร์และการดำเนินการที่นำมาใช้ แต่เป็นไปไม่ได้ที่จะหาเหตุผลมาอธิบายว่าทำไมการรวมกันของพารามิเตอร์นับล้านตัวจึงส่งผลให้ "อนุมัติ" สำหรับคนหนึ่งและ "ปฏิเสธ" สำหรับอีกคนหนึ่ง
ในระยะสั้น กล่องดำไม่ได้เกิดจากความลับขององค์กรเพียงอย่างเดียวนอกจากนี้ยังเป็นผลมาจากการเลือกใช้สถาปัตยกรรมที่ซับซ้อนอย่างยิ่ง ซึ่งเน้นความแม่นยำแต่ลดทอนความสามารถในการตีความลง
ความไม่โปร่งใส อคติ และการเลือกปฏิบัติ: เมื่อกล่องดำก่อให้เกิดอันตราย
การขาดความโปร่งใสไม่ใช่เพียงข้อเสียในเชิงทฤษฎีเท่านั้น ความไม่โปร่งใสของอัลกอริทึมอาจนำไปสู่การตัดสินใจที่ไม่เป็นธรรม เลือกปฏิบัติ หรือผิดพลาดอย่างสิ้นเชิงโดยที่ไม่มีวิธีการที่ชัดเจนในการตรวจจับปัญหาหรือแก้ไขปัญหาได้ทันท่วงที
ตัวอย่างที่มักถูกยกมากล่าวถึงคือโครงการนี้ เฉดสีโดย Joy Buolamwini และ Timnit Gebru ซึ่งวิเคราะห์ระบบจดจำใบหน้าเชิงพาณิชย์ต่างๆ การศึกษานี้แสดงให้เห็นว่า อัตราความผิดพลาดสูงกว่ามากเมื่อระบุตัวตนผู้หญิงผิวคล้ำ เมื่อทำการระบุตัวผู้ชายผิวขาว พบว่าในบางกรณีมีข้อผิดพลาดมากกว่า 34% เมื่อเทียบกับน้อยกว่า 1% ในกลุ่มที่ได้รับการรักษาอย่างดีที่สุด
จากผลลัพธ์โดยรวม ระบบเหล่านี้ดูเหมือนจะทำงานได้ดี แต่ จำแนกข้อผิดพลาดตามเพศและสีผิว ความไม่เท่าเทียมกันที่น่าเป็นห่วงอย่างยิ่งได้ถูกเปิดเผยออกมา นั่นเป็นหนึ่งในข้อเสียของกล่องดำอย่างแท้จริง: ข้อบกพร่องร้ายแรงอาจซ่อนอยู่ในคนทั่วไปได้ และจะไม่มีใครสังเกตเห็นหากไม่มีใครตรวจสอบผลลัพธ์อย่างละเอียดถี่ถ้วน
อคติประเภทนี้มักเกิดขึ้นโดยไม่ตั้งใจ AI เรียนรู้จากข้อมูลที่เราป้อนให้ และหากข้อมูลนั้นสะท้อนถึงความไม่เท่าเทียมกันในอดีตหรือแสดงถึงกลุ่มคนบางกลุ่มน้อยเกินไป แบบจำลองนี้สร้างซ้ำและขยายความอยุติธรรมเหล่านี้โดยที่ไม่มีใคร "สั่งการ" ให้ทำเช่นนั้นโดยตรงและเนื่องจากมันไม่โปร่งใส การตรวจจับว่าตัวแปรหรือการผสมผสานใดที่ก่อให้เกิดการเลือกปฏิบัติจึงกลายเป็นงานที่ซับซ้อนมาก
ความทึบแสงก็ทำให้ยากเช่นกัน การระบุข้อผิดพลาดหรือช่องโหว่ที่เป็นระบบหากเราไม่ทราบว่าแบบจำลอง "ใช้เหตุผล" อย่างไร ก็จะยิ่งยากที่จะคาดเดาได้ว่าข้อมูลป้อนเข้าประเภทใดอาจทำให้แบบจำลอง "เกิดภาพหลอน" (สร้างคำตอบที่ผิดพลาดแต่ดูน่าเชื่อถือ) หรือตกอยู่ในกับดักที่ออกแบบมาเพื่อบิดเบือนการทำงานของแบบจำลอง
ทั้งหมดนี้ส่งผลให้เกิดผลลัพธ์ที่ชัดเจนอย่างหนึ่งคือ: ความไว้วางใจระหว่างผู้ใช้ ลูกค้า และหน่วยงานภาครัฐลดลงหากมีใครได้รับผลกระทบจากการตัดสินใจที่ไม่เป็นธรรมของระบบ AI และไม่มีใครสามารถอธิบายได้อย่างชัดเจนว่าปัจจัยใดบ้างที่ถูกนำมาพิจารณา ย่อมเป็นเรื่องปกติที่จะเกิดข้อสงสัยเกี่ยวกับความยุติธรรมและความชอบธรรมของระบบนั้น
ผลกระทบด้านจริยธรรม กฎหมาย และความรับผิดชอบ
จากมุมมองทางกฎหมาย กล่องดำก่อให้เกิดปัญหาอย่างร้ายแรง: สิ่งนี้ทำให้การพิสูจน์ความสัมพันธ์เชิงสาเหตุระหว่างระบบ AI กับความเสียหายที่เกิดขึ้นมีความซับซ้อนมากขึ้นในการกำหนดความรับผิดทางแพ่ง โดยปกติแล้วต้องอาศัยการรวมกันของความเสียหาย การกระทำที่ผิดพลาดหรือบกพร่อง และความเชื่อมโยงเชิงสาเหตุ เมื่อการตัดสินใจขึ้นอยู่กับแบบจำลองที่ไม่โปร่งใส องค์ประกอบที่สามนี้ก็จะขาดความมั่นคง
ในโลกยุคอะนาล็อก การพูดคุยเกี่ยวกับการไล่ออก การปฏิเสธสินเชื่อ หรือการจำกัดการเข้าถึง จะทำโดยการตรวจสอบ เอกสาร เกณฑ์ พยาน และแรงจูงใจที่ชัดเจนในการสร้างแบบจำลอง AI นั้น จะมีชั้นของการอนุมานที่ยากต่อการสร้างใหม่แทรกอยู่ระหว่างข้อมูลป้อนเข้าและการตัดสินใจขั้นสุดท้าย ซึ่งมักจะจัดการโดยห่วงโซ่ของผู้เกี่ยวข้อง (ผู้ให้บริการแบบจำลอง ผู้บูรณาการ บริษัทผู้ใช้ บุคคลที่สามที่ให้ข้อมูล) ทำให้ผู้ที่ควบคุมอะไรนั้นลดทอนลง.
นอกจากนี้ ยังมีแรงจูงใจที่ชัดเจนในการปิดเคาน์เตอร์เก็บเงิน: ผู้ประกอบการสามารถปกปิดความจริงโดยอ้างความลับทางการค้าหรือความซับซ้อนทางเทคนิค เพื่อหลีกเลี่ยงการเปิดเผยข้อมูลที่เกี่ยวข้องในระหว่างการดำเนินคดี หากผู้เสียหายไม่สามารถเข้าถึงบันทึก เอกสารทางเทคนิค หรือร่องรอยการตัดสินใจได้ การพิสูจน์ว่าความเสียหายเกิดจากระบบ AI ก็แทบจะเป็นไปไม่ได้เลย
การตอบสนองจากฝ่ายนิติบัญญัติของยุโรปนั้นเด็ดขาด: หากไม่สามารถอธิบายได้อย่างครบถ้วน... ภาระทั้งหมดของการทดสอบไม่ควรตกอยู่กับส่วนที่อ่อนแอที่สุดดังนั้น เราจึงเห็นกฎระเบียบใหม่ที่กำหนดให้มีการเก็บรักษาบันทึกข้อมูล จัดทำเอกสารเกี่ยวกับวิธีการทำงานของระบบ อนุญาตให้มีการตรวจสอบ และในระดับขั้นตอนการปฏิบัติงาน เปิดโอกาสให้มีการนำเสนอหลักฐานและข้อสันนิษฐานที่เป็นประโยชน์ต่อฝ่ายผู้เสียหาย เมื่อผู้ปฏิบัติงานไม่ให้ความร่วมมือ
ลองพิจารณาตัวอย่างเช่น บริษัทที่ใช้เครื่องมือ AI ในด้านทรัพยากรบุคคลเพื่อ... คัดกรองประวัติการทำงาน ประเมินผลการปฏิบัติงาน หรือแนะนำการเลื่อนตำแหน่งตามหลักการแล้ว การตัดสินใจขั้นสุดท้ายขึ้นอยู่กับบุคคล แต่ในทางปฏิบัติ การตัดสินใจนั้นขึ้นอยู่กับรายงานที่สร้างโดย AI เป็นอย่างมาก หากพนักงานถูกปฏิเสธหรือถูกไล่ออกและไม่ได้รับสิทธิ์ในการเข้าถึงข้อมูล ใช้ข้อมูลอะไรบ้าง ข้อมูลนั้นมีน้ำหนักเท่าใด และตรวจพบรูปแบบอะไรบ้าง ไม่ว่าเอกสารทางเทคนิคใดจะสนับสนุนระบบก็ตาม กล่องดำไม่เพียงแต่ตัดสินใจเท่านั้น แต่ยัง... เป็นการขัดขวางการโต้แย้งการตัดสินใจอย่างมีประสิทธิภาพ.
ปัญญาประดิษฐ์ที่อธิบายได้และความสามารถในการตีความ: การพยายามเปิดกล่อง
เพื่อบรรเทาปัญหาเหล่านี้ จึงมีสาขาวิชาที่เกี่ยวข้องเข้ามาเกี่ยวข้อง ปัญญาประดิษฐ์ที่อธิบายได้ หรือ XAI (Explainable Artificial Intelligence)เป้าหมายไม่ได้อยู่ที่การ "แปล" ทีละบรรทัดว่าอัลกอริทึมทำงานอย่างไร แต่เป็นการให้คำอธิบายที่มีประโยชน์ เข้าใจง่าย และนำไปปฏิบัติได้จริงว่าทำไมโมเดลจึงตัดสินใจเช่นนั้น
มีแนวทางหลักสองแนวทาง ในด้านหนึ่งคือ... แบบจำลองที่ตีความได้โดยเนื้อแท้ หรือแบบจำลองกล่องขาวอัลกอริทึมแบบง่ายๆ เช่น การถดถอยเชิงเส้น ต้นไม้ตัดสินใจแบบตื้น หรือกฎตรรกะ แสดงให้เห็นอย่างชัดเจนว่าตัวแปรใดบ้างที่รวมอยู่ กฎใดบ้างที่ถูกนำมาใช้ และผลลัพธ์นั้นได้มาอย่างไร โมเดลประเภทนี้ช่วยอำนวยความสะดวกในการตรวจสอบและติดตามย้อนกลับ แม้ว่าบางครั้งอาจทำให้ความแม่นยำลดลงบ้างก็ตาม
ในทางกลับกันเรามี แบบจำลองที่ซับซ้อน (กล่องดำ) ซึ่งใช้เทคนิคการอธิบายภายหลังนี่คือจุดที่เครื่องมือต่างๆ เช่น LIME, SHAP, แผนที่ความโดดเด่น หรือ Grad-CAM เข้ามามีบทบาท ซึ่งช่วยให้เราสามารถประเมินได้ว่าคุณลักษณะใดมีน้ำหนักมากที่สุดในการทำนายเฉพาะเจาะจง หรือเพื่อแสดงให้เห็นว่าส่วนใดของภาพมีความสำคัญต่อการวินิจฉัยโรค
ตัวอย่างเช่น ในทางการแพทย์ เทคนิคประเภท SHAP ได้ถูกนำมาใช้เพื่อ วิเคราะห์แบบจำลองภาพวินิจฉัย และพบว่าในบางกรณี ระบบให้ความสำคัญกับเครื่องหมายหรือคำอธิบายประกอบบนภาพเอ็กซ์เรย์มากเกินไป แทนที่จะให้ความสำคัญกับรูปแบบทางคลินิกที่เกี่ยวข้อง การตรวจพบความเบี่ยงเบนเหล่านี้ทำให้สามารถแก้ไขแบบจำลองและลดความเสี่ยงได้
นอกจากนี้ ความสามารถในการอธิบายยังมีมิติสำคัญที่เกี่ยวข้องกับมนุษย์ด้วย: คำอธิบายนั้นไร้ประโยชน์หากผู้รับไม่เข้าใจแพทย์มีความต้องการที่แตกต่างจากวิศวกรข้อมูล ผู้พิพากษามีความต้องการที่แตกต่างจากผู้ป่วยหรือลูกค้าธนาคาร นั่นคือเหตุผลที่เราทำงานแบบสหวิทยาการ โดยผสมผสานเทคโนโลยีกับจิตวิทยาการรับรู้และการออกแบบส่วนติดต่อผู้ใช้ เพื่อปรับคำอธิบายให้เหมาะสมกับโปรไฟล์ของผู้รับสาร
กล่องดำ กล่องขาว และ AI ที่อธิบายได้: แตกต่างกันอย่างไร?
คำว่า “กล่องขาว” “กล่องดำ” และ “ปัญญาประดิษฐ์ที่อธิบายได้” มักถูกใช้สลับกันไปมา แต่... มันไม่เหมือนกันทุกประการการชี้แจงคำศัพท์ให้ชัดเจนเป็นสิ่งสำคัญ เพราะความสับสนนี้ก่อให้เกิดความเข้าใจผิดอย่างมาก
Un แบบจำลองกล่องสีขาว เขาคือใคร การทำงานภายในมีความโปร่งใสและเข้าใจง่ายเราสามารถเห็นได้อย่างง่ายดายว่ามีตัวแปรใดบ้าง ตัวแปรเหล่านั้นรวมกันอย่างไร กฎใดบ้างที่ใช้ได้ และอินพุตกลายเป็นเอาต์พุตได้อย่างไร ตัวอย่างทั่วไปได้แก่: การถดถอยเชิงเส้นที่มีการระบุอย่างชัดเจน หรือแผนผังการตัดสินใจแบบง่ายๆแบบจำลองเหล่านี้สามารถตีความได้ด้วยตนเอง เนื่องจากโครงสร้างของแบบจำลองนั้นทำหน้าที่เป็นคำอธิบายอยู่แล้ว
Un แบบจำลองกล่องดำในทางกลับกัน มันเป็นสิ่งที่มีตรรกะภายในที่ไม่สามารถเข้าใจได้ง่าย ซึ่งรวมถึง โครงข่ายประสาทเทียมเชิงลึก, ป่าสุ่มที่มีความซับซ้อนสูง, การเพิ่มประสิทธิภาพแบบ XGBoost และโดยทั่วไปแล้ว ระบบใดๆ ก็ตามที่มีพารามิเตอร์หลายชั้นซึ่งยากต่อการแปลเป็นกฎเกณฑ์ที่ชัดเจนสำหรับมนุษย์
La ปัญญาประดิษฐ์ที่สามารถอธิบายได้ (XAI) มันเป็นคำที่ครอบคลุมกว้างกว่า ซึ่งรวมถึงทั้งโมเดลกล่องสีขาวและ เทคนิคที่ใช้กับกล่องดำเพื่อสร้างคำอธิบายภายหลังแบบจำลองที่ซับซ้อนมากจะถือว่า "อธิบายได้" หากมีเครื่องมือประกอบ เช่น เครื่องมือที่ช่วยให้สามารถแยกแยะความสำคัญของตัวแปร แสดงภาพประเด็นสำคัญ หรือสร้างตัวอย่างเปรียบเทียบได้ ("ถ้าเงินเดือนของคุณเป็น X และอายุงานของคุณเป็น Y ผลลัพธ์ก็จะเปลี่ยนไป")
ในทางปฏิบัติ องค์กรหลายแห่งได้ผสมผสานทั้งสองแนวทางเข้าด้วยกัน: พวกเขาใช้แบบจำลองที่เรียบง่ายเมื่อความโปร่งใสมีความสำคัญมากกว่าความแม่นยำ (กรณีที่มีการควบคุมอย่างเข้มงวด) และหันไปใช้โมเดลที่มีประสิทธิภาพมากขึ้นควบคู่กับ XAI เมื่อต้องการเพิ่มประสิทธิภาพในการทำนายให้สูงสุด แต่โดยไม่ละทิ้งการตีความโดยสิ้นเชิง
กฎระเบียบของยุโรป: กฎหมาย AI, GDPR และความรับผิดต่อผลิตภัณฑ์
สหภาพยุโรปได้ตัดสินใจที่จะแก้ไขปัญหาความไม่โปร่งใสของอัลกอริทึมจากหลายแง่มุม ในด้านหนึ่งนั้น... ระเบียบการคุ้มครองข้อมูลทั่วไป (RGPD) กฎหมายดังกล่าวได้กำหนดข้อผูกพันบางประการไว้แล้วเมื่อมีการตัดสินใจโดยอัตโนมัติโดยอิงจากข้อมูลส่วนบุคคล โดยกำหนดให้ต้องให้ข้อมูลที่มี "ความหมาย" เกี่ยวกับตรรกะที่ใช้ในลักษณะที่ผู้ได้รับผลกระทบสามารถเข้าใจได้
เพิ่มเข้าไปนี้ยังมี กฎหมาย AI หรือระเบียบข้อบังคับด้านปัญญาประดิษฐ์ของยุโรปซึ่งมีผลบังคับใช้ตั้งแต่เดือนสิงหาคม 2024 โดยกำหนดกรอบเฉพาะสำหรับการพัฒนาและการใช้งานระบบปัญญาประดิษฐ์ในสหภาพยุโรป กฎระเบียบดังกล่าว จำแนกระบบตามระดับความเสี่ยงโดยห้ามโดยตรงในสิ่งที่ "มีความเสี่ยงที่ยอมรับไม่ได้" (เช่น การให้คะแนนทางสังคมในรูปแบบของเครดิตทางสังคมแบบมวลชน หรือเทคนิคการบิดเบือนพฤติกรรมที่รุนแรงบางอย่าง)
ระบบ มีความเสี่ยงสูง (ตัวอย่างเช่น การใช้งานบางอย่างในด้านสุขภาพ การเงิน ทรัพยากรบุคคล การศึกษา หรือกองกำลังรักษาความปลอดภัย) อยู่ภายใต้ข้อผูกพันที่เข้มงวด: พวกเขาต้องมี เอกสารทางเทคนิคที่ละเอียดครบถ้วน ระบบบันทึกข้อมูลอัตโนมัติที่ช่วยให้ตรวจสอบย้อนกลับได้ และข้อมูลที่ชัดเจนและเข้าใจง่ายสำหรับผู้ใช้งาน และกลไกการกำกับดูแลโดยมนุษย์ที่มีประสิทธิภาพ
นอกจากนี้ พระราชบัญญัติปัญญาประดิษฐ์ยังกำหนดไว้ว่า ข้อผูกพันด้านความโปร่งใส ในสถานการณ์ต่างๆ เช่น การใช้แชทบอทหรือโปรแกรมสร้างเนื้อหาอัตโนมัติ จำเป็นต้องแจ้งเตือนผู้ใช้เมื่อพวกเขากำลังโต้ตอบกับปัญญาประดิษฐ์ และในบางกรณี ต้องติดป้ายกำกับเนื้อหาที่สร้างขึ้นโดยอัตโนมัติ ข้อกำหนดเหล่านี้ส่วนใหญ่จะทยอยนำมาใช้ในอีกหลายปีข้างหน้า โดยเริ่มจากกรณีที่มีผลกระทบมากที่สุดก่อน
ในขณะเดียวกัน สิ่งใหม่ คำสั่ง (EU) 2024/2853 ว่าด้วยความรับผิดต่อผลิตภัณฑ์ที่ชำรุด คำสั่งนี้ปรับปรุงกรอบความรับผิดทางแพ่งให้เข้ากับสภาพแวดล้อมที่ผลิตภัณฑ์อาจเป็นซอฟต์แวร์ได้ และความล้มเหลวอาจเกิดขึ้นจากฟังก์ชันดิจิทัล คำสั่งนี้ยอมรับอย่างชัดเจนว่า ความซับซ้อนทางเทคนิคและวิทยาศาสตร์ของระบบ AI และช่วยให้ผู้พิพากษาสามารถเรียกร้องให้มีการนำเสนอหลักฐานที่เกี่ยวข้อง รวมถึงหลักฐานดิจิทัล ในรูปแบบที่เข้าถึงได้และเข้าใจง่าย
หากผู้ประกอบการไม่ให้ความร่วมมือหรือฝ่าฝืนข้อกำหนดด้านความปลอดภัย อาจเกิดผลดังต่อไปนี้ ข้อสันนิษฐานเกี่ยวกับความบกพร่องและความเป็นเหตุเป็นผลกล่าวอีกนัยหนึ่ง หากผู้เสียหายสามารถแสดงหลักฐานที่สมเหตุสมผลได้ และจำเลยไม่สามารถแสดงบันทึกหรือเอกสารตามที่ศาลร้องขอ กฎหมายจะชดเชยความไม่สมดุลของหลักฐานโดยเอียงไปทางฝ่ายผู้เสียหาย
มาตรการควบคุมทั้งหมดนี้ส่งข้อความที่ชัดเจน: ผู้ใดก็ตามที่นำความซับซ้อนของอัลกอริทึมเข้ามาในตลาด จะต้องรับผิดชอบในการทำให้สามารถตรวจสอบได้กล่องดำนั้นไม่ถือเป็นข้อได้เปรียบในการป้องกันอีกต่อไป แต่กลับกลายเป็นความเสี่ยงด้านการปฏิบัติตามกฎระเบียบและชื่อเสียง
ความโปร่งใส รูปแบบเปิด และความท้าทายที่ยังรออยู่
วิธีหนึ่งในการลดความทึบแสงคือการลงทุนใน โมเดลโอเพนซอร์สและแนวทางการจัดทำเอกสารที่ครอบคลุมระบบเปิดช่วยให้นักวิจัย หน่วยงานกำกับดูแล และชุมชนด้านเทคนิคสามารถตรวจสอบโค้ด จำลองการทดลอง และตรวจจับอคติหรือช่องโหว่ที่อาจเกิดขึ้นได้
อย่างไรก็ตาม แม้จะเป็นโอเพนซอร์ส เราก็ยังคงมีปัญหาพื้นฐานอยู่ดี: ความสามารถในการตีความพารามิเตอร์และการแสดงผลภายในความโปร่งใสในการเข้าถึงไม่ได้หมายความถึงความโปร่งใสในการทำความเข้าใจโดยอัตโนมัติ ด้วยเหตุนี้จึงมีการเน้นย้ำอย่างมากในการผสมผสานความเปิดเผยเข้ากับเทคนิคการเข้าถึงแบบเปิด และกระบวนการกำกับดูแลและการตรวจสอบที่ชัดเจน
เจ้าหน้าที่และผู้เชี่ยวชาญต่างเน้นย้ำถึงความสำคัญของ ส่งเสริมวัฒนธรรมแห่งความโปร่งใสและความรับผิดชอบจัดทำบันทึกการฝึกอบรมและการใช้งานอย่างละเอียด บันทึกการเปลี่ยนแปลงของแบบจำลอง กำหนดระเบียบการกำกับดูแลโดยมนุษย์ และออกแบบส่วนติดต่อผู้ใช้ที่อธิบายความสามารถ ข้อจำกัด และความเสี่ยงของระบบแก่ผู้ใช้
งานยังดำเนินการอยู่ เทคนิคการตีความแบบใหม่เช่น ออโต้เอนโคเดอร์แบบเบาบาง และวิธีการอื่นๆ ที่พยายามแยกปัจจัยแฝงที่ "สะอาดกว่า" และอ่านง่ายกว่าจากแบบจำลองที่ซับซ้อนมาก แนวคิดคือการค่อยๆ เข้าใกล้ "กล่องแก้ว" ชนิดหนึ่ง ซึ่งความซับซ้อนภายในยังคงอยู่ แต่มีชั้นคำอธิบายที่แข็งแกร่งกว่า
อย่างไรก็ตาม ผู้เชี่ยวชาญยอมรับว่า เราจะไม่ทำให้โมเดลทั้งหมดโปร่งใสอย่างสมบูรณ์แบบความท้าทายที่แท้จริงคือการสร้างสมดุลระหว่างความถูกต้อง ประสิทธิภาพ และความสามารถในการอธิบาย โดยเน้นที่การทำให้ระบบที่ทำการตัดสินใจซึ่งมีผลกระทบสูงต่อสิทธิขั้นพื้นฐานนั้นเข้าใจง่ายเป็นพิเศษ
ท้ายที่สุดแล้ว การทำงานกับ AI ในปัจจุบันจำเป็นต้องตั้งสมมติฐานว่า ความสัมพันธ์ควรเป็นแบบร่วมมือ ไม่ใช่แบบปิดหูปิดตาเครื่องจักรให้พลังการประมวลผลและความสามารถในการตรวจจับรูปแบบ แต่มนุษย์ยังคงต้องกำหนดมาตรฐานทางจริยธรรม ตรวจสอบความถูกต้องของผลลัพธ์ที่สำคัญ และเรียกร้องคำอธิบายที่สมเหตุสมผลเมื่อมีบางสิ่งที่ไม่สอดคล้องกัน
ในบริบทนี้ สิ่งที่เรียกว่า “ความไม่โปร่งใส” หรือผลกระทบแบบกล่องดำของ AI ไม่ใช่เพียงแค่ปัญหาทางเทคนิคเท่านั้น แต่ยังเป็น... จุดศูนย์กลางของความขัดแย้งระหว่างนวัตกรรม กฎระเบียบ และความไว้วางใจทางสังคมเมื่อกฎหมายของยุโรป เทคนิค AI และแนวปฏิบัติด้านธรรมาภิบาลที่ดีก้าวหน้าขึ้น กล่องดำก็จะไม่ใช่ปริศนาที่เข้าถึงไม่ได้อีกต่อไป และเริ่มถูกมองว่าเป็นระบบที่แม้จะซับซ้อน แต่ก็สามารถและควรได้รับการเปิดเผยอย่างเพียงพอ เพื่อให้ประชาชน บริษัท และศาลสามารถไว้วางใจในการตัดสินใจของระบบได้
นักเขียนผู้หลงใหลเกี่ยวกับโลกแห่งไบต์และเทคโนโลยีโดยทั่วไป ฉันชอบแบ่งปันความรู้ผ่านการเขียน และนั่นคือสิ่งที่ฉันจะทำในบล็อกนี้ เพื่อแสดงให้คุณเห็นสิ่งที่น่าสนใจที่สุดเกี่ยวกับอุปกรณ์ ซอฟต์แวร์ ฮาร์ดแวร์ แนวโน้มทางเทคโนโลยี และอื่นๆ เป้าหมายของฉันคือการช่วยคุณนำทางโลกดิจิทัลด้วยวิธีที่เรียบง่ายและสนุกสนาน