Tech

AI Weekly: ความท้าทายที่ยากต่อการมีอคติใน AI

25 ตุลาคม 2564 เวลา 11:15 น. เครดิตรูปภาพ: Getty Images เมื่อสัปดาห์ที่แล้ว Twitter แบ่งปันงานวิจัยที่แสดงให้เห็นว่าอัลกอริทึมของแพลตฟอร์มขยายทวีตจากนักการเมืองที่อยู่ตรงกลางและแหล่งข่าวโดยเสียค่าใช้จ่ายจากแหล่งที่เอนเอียงไปทางซ้าย Rumman Chowdhury หัวหน้าทีมการเรียนรู้ของเครื่อง จริยธรรม ความโปร่งใส และความรับผิดชอบของ Twitter กล่าวในการให้สัมภาษณ์กับ Protocol ว่าแม้ว่าพฤติกรรมบางอย่างอาจเกิดจากผู้ใช้ แต่สาเหตุของความลำเอียงนั้นไม่ชัดเจนทั้งหมด “เราจะเห็นว่ามันกำลังเกิดขึ้น เราไม่แน่ใจนักว่าทำไมมันถึงเกิดขึ้น” Chowdhury กล่าว “เมื่ออัลกอริทึมถูกเผยแพร่สู่โลก จะเกิดอะไรขึ้นเมื่อผู้คนโต้ตอบกับมัน เราไม่สามารถสร้างแบบจำลองสำหรับสิ่งนั้นได้ เราไม่สามารถจำลองว่าบุคคลหรือกลุ่มคนจะใช้ Twitter อย่างไร จะเกิดอะไรขึ้นในโลกในลักษณะที่จะส่งผลต่อการใช้ Twitter ของผู้คน” การวิเคราะห์สาเหตุหลักที่จะเกิดขึ้นของ Twitter จะทำให้ต้นกำเนิดของการเอียงไปทางขวาของอัลกอริธึมคำแนะนำบางส่วน แต่การเปิดเผยอย่างตรงไปตรงมาของ Chowdhury เน้นย้ำถึงความไม่รู้เกี่ยวกับอคติในแบบจำลอง AI และวิธีการที่เกิดขึ้น — และเป็นไปได้หรือไม่ที่จะบรรเทาอคติเหล่านี้ ความท้าทายของโมเดลที่มีอคติ หลายปีที่ผ่านมาได้พิสูจน์แล้วว่าเทคนิคการบรรเทาอคติไม่ใช่ยาครอบจักรวาลสำหรับการคาดการณ์ที่ยุติธรรมจากโมเดล AI การใช้โซลูชันอัลกอริธึมกับปัญหาสังคมสามารถขยายอคติต่อกลุ่มคนชายขอบ และการสุ่มตัวอย่างประชากรจะส่งผลให้เกิดความแม่นยำในการทำนายที่แย่ลง ตัวอย่างเช่น แม้แต่โมเดลภาษาชั้นนำอย่าง GPT-3 ของ OpenAI ก็แสดงพฤติกรรมที่เป็นพิษและการเลือกปฏิบัติ โดยปกติแล้วจะสามารถตรวจสอบย้อนกลับไปยังกระบวนการสร้างชุดข้อมูลได้ เมื่อได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลที่มีความเอนเอียง ตัวแบบจะได้รับและทำให้ความเอนเอียงรุนแรงขึ้น เช่น การทำเครื่องหมายข้อความโดยผู้เขียนผิวดำว่าเป็นพิษมากกว่าข้อความโดยผู้เขียนผิวขาว อคติใน AI ไม่ได้เกิดขึ้นจากชุดข้อมูลเพียงอย่างเดียว การกำหนดปัญหาหรือวิธีที่นักวิจัยปรับงานให้เข้ากับเทคนิค AI ก็สามารถช่วยได้เช่นกัน ขั้นตอนอื่นๆ ที่นำโดยมนุษย์ในไปป์ไลน์การปรับใช้ AI ก็สามารถทำได้เช่นกัน การศึกษาล่าสุดจาก Cornell และ Brown University ได้ตรวจสอบปัญหาต่างๆ เกี่ยวกับการเลือกแบบจำลอง หรือกระบวนการที่วิศวกรเลือกแบบจำลองการเรียนรู้ของเครื่องเพื่อปรับใช้หลังจากการฝึกอบรมและการตรวจสอบ บทความนี้ตั้งข้อสังเกตว่าในขณะที่นักวิจัยอาจรายงานประสิทธิภาพโดยเฉลี่ยในแบบจำลองจำนวนน้อย พวกเขามักจะเผยแพร่ผลลัพธ์โดยใช้ชุดตัวแปรเฉพาะที่สามารถบดบังประสิทธิภาพที่แท้จริงของแบบจำลองได้ สิ่งนี้ทำให้เกิดความท้าทายเนื่องจากคุณสมบัติของรุ่นอื่นๆ สามารถเปลี่ยนแปลงได้ระหว่างการฝึก ความแตกต่างเพียงเล็กน้อยในความถูกต้องระหว่างกลุ่มอาจเพิ่มขึ้นเป็นกลุ่มใหญ่ ซึ่งส่งผลต่อความเป็นธรรมโดยคำนึงถึงกลุ่มประชากรเฉพาะ ผู้เขียนร่วมของการศึกษานี้เน้นย้ำถึงกรณีศึกษาที่ขอให้อาสาสมัครในการทดสอบเลือกรูปแบบการตรวจหามะเร็งผิวหนังที่ “ยุติธรรม” ตามเมตริกที่พวกเขาระบุ อย่างท่วมท้น อาสาสมัครเลือกแบบจำลองที่มีความแม่นยำสูงสุด แม้ว่าจะแสดงความเหลื่อมล้ำทางเพศมากที่สุดก็ตาม นี่เป็นปัญหาบนใบหน้าเนื่องจากเมตริกความแม่นยำไม่ได้ให้รายละเอียดของเชิงลบที่เป็นเท็จ (ขาดการวินิจฉัยโรคมะเร็ง) และผลบวกที่ผิดพลาด (การวินิจฉัยโรคมะเร็งอย่างผิดพลาดเมื่อไม่มีอยู่จริง) นักวิจัยยืนยัน การรวมเมตริกเหล่านี้อาจทำให้อาสาสมัครตัดสินใจเลือกแบบจำลองที่ “ดีที่สุด” ที่แตกต่างกัน ความแตกต่างทางสถาปัตยกรรมระหว่างอัลกอริธึมสามารถนำไปสู่ผลลัพธ์ที่มีอคติได้เช่นกัน ในบทความที่ได้รับการยอมรับในการประชุม NeurIPS ในปี 2020 นักวิจัยของ Google และ Stanford ได้สำรวจอคติที่แสดงโดยอัลกอริธึมการมองเห็นด้วยคอมพิวเตอร์บางประเภท — Convolutional Neural Network (CNNs) — ที่ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูล ImageNet แบบโอเพนซอร์ส งานของพวกเขาบ่งชี้ว่าอคติของ CNN ที่มีต่อพื้นผิวอาจไม่ได้มาจากความแตกต่างในการทำงานภายใน แต่มาจากความแตกต่างในข้อมูลที่พวกเขาเห็น: CNN มักจะจำแนกวัตถุตามวัสดุ (เช่น “ตาหมากรุก”) และมนุษย์เพื่อสร้างรูปร่าง (เช่น “วงกลม” ”). จากปัจจัยต่างๆ ที่เกี่ยวข้อง จึงไม่น่าแปลกใจที่ 65% ของผู้บริหารไม่สามารถอธิบายได้ว่าแบบจำลองของบริษัทของตนตัดสินใจอย่างไร แม้ว่าความท้าทายในการระบุและขจัดอคติใน AI จะยังคงมีอยู่ โดยเฉพาะอย่างยิ่งเมื่อการวิจัยค้นพบข้อบกพร่องในเทคนิคการบรรเทาอคติ แต่ก็มีขั้นตอนการป้องกันที่สามารถทำได้ ตัวอย่างเช่น การศึกษาจากทีมงานที่มหาวิทยาลัยโคลัมเบียพบว่า ความหลากหลายในทีมวิทยาศาสตร์ข้อมูลเป็นกุญแจสำคัญในการลดความลำเอียงของอัลกอริทึม ทีมงานพบว่า แม้ว่าแต่ละคนจะมีอคติเท่าๆ กันไม่ว่าจะมากหรือน้อยก็ตาม ข้ามเชื้อชาติ เพศ และชาติพันธุ์ ผู้ชายมีแนวโน้มที่จะทำผิดพลาดในการคาดคะเนแบบเดียวกันมากกว่า สิ่งนี้บ่งชี้ว่ายิ่งทีมมีความเป็นเนื้อเดียวกันมากเท่าใด โอกาสที่ข้อผิดพลาดในการคาดคะเนก็จะปรากฏสองครั้งมากขึ้นเท่านั้น “คำถามเกี่ยวกับอคติของอัลกอริทึมมักถูกมองว่าเป็นปัญหาทางวิทยาการคอมพิวเตอร์เชิงทฤษฎี อย่างไรก็ตาม อัลกอริธึมที่พัฒนาขึ้นโดยมนุษย์ ซึ่งทำงานภายในองค์กร ซึ่งอยู่ภายใต้การฝึกอบรม การโน้มน้าวใจ วัฒนธรรม สิ่งจูงใจ และความขัดแย้งในการดำเนินการ” นักวิจัยเขียนไว้ในบทความ จากการศึกษาอื่น ๆ ที่ชี้ให้เห็นว่าอุตสาหกรรม AI สร้างขึ้นจากความไม่เท่าเทียมกันทางภูมิศาสตร์และสังคม การเตรียมชุดข้อมูลสำหรับการวิจัย AI นั้นไม่สอดคล้องกันอย่างมาก และนักวิจัย AI รายใหญ่สองสามรายพูดคุยถึงผลกระทบด้านลบที่อาจเกิดขึ้นจากงานของพวกเขาในเอกสารที่ตีพิมพ์ แนวทางที่รอบคอบในการปรับใช้ AI กำลังมีความสำคัญมากขึ้นเรื่อยๆ ความล้มเหลวในการนำแบบจำลองไปใช้อย่างมีความรับผิดชอบ และนำไปสู่ผลลัพธ์ด้านสุขภาพที่ไม่สม่ำเสมอ การพิจารณาคดีอาญาอย่างไม่เป็นธรรม การพูดไม่ชัด ที่อยู่อาศัยและการเลือกปฏิบัติ หรือแม้แต่การตัดสิทธิ์ อันตรายมักจะเกิดขึ้นบ่อยขึ้นหากอัลกอริธึมที่มีข้อบกพร่องเพิ่มขึ้น ภารกิจของ VentureBeat คือการเป็นจัตุรัสกลางเมืองดิจิทัลสำหรับผู้มีอำนาจตัดสินใจด้านเทคนิคเพื่อรับความรู้เกี่ยวกับเทคโนโลยีและการทำธุรกรรมที่เปลี่ยนแปลงได้ ไซต์ของเราให้ข้อมูลที่จำเป็นเกี่ยวกับเทคโนโลยีข้อมูลและกลยุทธ์เพื่อเป็นแนวทางในการเป็นผู้นำองค์กรของคุณ เราขอเชิญคุณเข้าร่วมเป็นสมาชิกชุมชนของเรา เพื่อเข้าถึง: ข้อมูลล่าสุดในหัวข้อที่คุณสนใจ จดหมายข่าวของเราครอบคลุมเนื้อหาผู้นำทางความคิดและส่วนลดในการเข้าถึงกิจกรรมล้ำค่าของเรา เช่น Transform 2021: เรียนรู้เพิ่มเติม เครือข่าย คุณสมบัติและอื่น ๆ สมัครสมาชิก

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button