Tech

4 ข้อควรพิจารณาในการรับผิดชอบ AI . ที่รับผิดชอบ

Transform Technology Summits เริ่มต้นวันที่ 13 ตุลาคมด้วย Low-Code/No Code: เปิดใช้งาน Enterprise Agility สมัครตอนนี้!


บทความนี้เขียนโดย Micaela Kaplan, Ethics in AI Lead, CallMiner

ปัญญาประดิษฐ์ (AI) และการเรียนรู้ของเครื่อง (ML) เป็นที่แพร่หลายในชีวิตประจำวันของเรา ตั้งแต่รถยนต์ไร้คนขับไปจนถึงฟีดโซเชียลมีเดียของเรา AI ได้ช่วยให้โลกของเราดำเนินการได้เร็วกว่าที่เคยเป็นมา และนั่นก็เป็นสิ่งที่ดี — ส่วนใหญ่แล้ว

เนื่องจากเทคโนโลยีเหล่านี้ผสานเข้ากับชีวิตประจำวันของเรา จึงมีคำถามมากมายเกี่ยวกับจริยธรรมของการใช้และการสร้างเทคโนโลยีเหล่านี้ด้วยเช่นกัน เครื่องมือ AI คือโมเดลและอัลกอริธึมที่สร้างขึ้นจากข้อมูลในโลกแห่งความเป็นจริง ดังนั้นเครื่องมือเหล่านี้จึงสะท้อนถึงความอยุติธรรมในโลกแห่งความเป็นจริง เช่น การเหยียดเชื้อชาติ การเกลียดผู้หญิง และความกลัวเพศทางเลือก และอื่นๆ อีกมากมาย ข้อมูลนี้นำไปสู่แบบจำลองที่ สานต่อแบบแผนที่มีอยู่ ส่งเสริมการอยู่ใต้บังคับบัญชาของกลุ่มคนบางกลุ่มต่อประชากรส่วนใหญ่ หรือมอบหมายทรัพยากรอย่างไม่เป็นธรรม หรือการเข้าถึงบริการ ผลลัพธ์ทั้งหมดเหล่านี้ส่งผลกระทบอย่างใหญ่หลวงต่อทั้งผู้บริโภคและธุรกิจ

ในขณะที่หลายบริษัทเริ่มตระหนักถึงปัญหาที่อาจเกิดขึ้นเหล่านี้ในโซลูชัน AI มีเพียงไม่กี่คนเท่านั้นที่เริ่มสร้างโครงสร้างและนโยบายเพื่อจัดการกับมัน ความจริงก็คือว่า AI และความยุติธรรมทางสังคมไม่สามารถทำงานเป็นสองโลกแยกกันได้อีกต่อไป พวกเขาต้องการอิทธิพลจากกันและกันเพื่อสร้างเครื่องมือที่จะช่วยเราสร้างโลกที่เราอยากเห็น การจัดการกับคำถามด้านจริยธรรมที่เกี่ยวข้องกับ AI และความเข้าใจในความรับผิดชอบต่อสังคมของเรานั้นเป็นกระบวนการที่ซับซ้อนซึ่งเกี่ยวข้องกับงานที่ท้าทายและการอุทิศตนของคนจำนวนมาก ด้านล่างนี้คือสิ่งที่คุณต้องคำนึงถึงเมื่อคุณเริ่มต้นการเดินทางสู่ AI ที่มีความรับผิดชอบ สร้างพื้นที่ที่อนุญาต ให้คนตั้งคำถามและข้อกังวลใจ

เมื่อศึกษาจรรยาบรรณในทุกสถานะ เผชิญความจริงที่ไม่สบายใจก็มาพร้อมกับ อาณาเขต ทีมที่แข็งแกร่งที่สุดในการต่อสู้เพื่อ AI ที่มีความรับผิดชอบคือทีมที่ซื่อสัตย์กับตัวเอง ทีมเหล่านี้รับทราบความเอนเอียงที่ปรากฏในข้อมูล แบบจำลอง และตัวของพวกเขาเอง พวกเขายังพิจารณาว่าอคติเหล่านี้ส่งผลต่อโลกรอบตัวพวกเขาอย่างไร การสังเกตและปฏิบัติตามอคติและผลกระทบจำเป็นต้องมีการสนทนากลุ่มอย่างตรงไปตรงมา

การอุทิศเวลาและพื้นที่ในการสนทนาเหล่านี้เป็นสิ่งสำคัญในการสร้างความมั่นใจ ว่าการสนทนาเหล่านี้สามารถเป็นได้ – การสนทนา ในฐานะทีม เราจำเป็นต้องสร้างพื้นที่ที่ช่วยให้เราสามารถพูดได้อย่างอิสระในหัวข้อที่อาจเป็นข้อโต้แย้งโดยไม่ต้องกลัวผลที่ตามมา โดยพื้นฐานแล้วต้องได้รับการสนับสนุนจากผู้บริหาร บางครั้งอาจง่ายกว่าที่จะให้ทีมพบปะพูดคุยโดยไม่มีผู้บริหาร แล้วนำเสนอแนวคิดของกลุ่มต่อผู้บริหารในภายหลัง การไม่เปิดเผยตัวตนในระดับนี้สามารถช่วยให้รู้สึกปลอดภัย เนื่องจากแนวคิดที่นำเสนอในนามของทีมไม่สามารถสืบย้อนกลับไปยังบุคคลเพียงคนเดียวได้ การเปิดโอกาสให้มีการสื่อสารอย่างเปิดเผยและข้อเสนอแนะอย่างตรงไปตรงมาคือสิ่งที่ช่วยให้เราเผชิญคำถามเหล่านี้ได้อย่างมีประสิทธิผล ในการต่อสู้เพื่อ AI ที่มีจริยธรรม ไม่ใช่ทีมที่แข่งขันกันเอง เป็นทีมที่ต่อต้านปัญหาที่อาจเกิดขึ้นในแบบจำลอง รู้ว่าจะต้องมองหาอะไร หรืออย่างน้อยจะเริ่มจากตรงไหน

การค้นหาปัญหาในโซลูชัน AI อาจเป็นเรื่องยาก ประสิทธิภาพที่อ่อนแอของแบบจำลองในชุดการฝึกอาจบ่งชี้ว่าประชากรการฝึกอบรมไม่ได้เป็นตัวแทนของโลกแห่งความเป็นจริง การเป็นตัวแทนของชนกลุ่มน้อยในระดับต่ำอาจส่งผลให้เกิดเครื่องมือพูดที่ตีความสำเนียงผิดหรือตัวกรองที่จดจำเฉพาะใบหน้าสีขาว ยังมีอีกหลายกรณีที่อาจเกิดขึ้น และการรู้ว่าจะมองที่ใดอาจรู้สึกยาก

วิธีที่ดีที่สุดในการ จุดอคติหรือข้อกังวลอื่น ๆ ในแบบจำลองของคุณคือการให้ความสนใจและตั้งใจในการทดสอบของคุณ ในช่วงไม่กี่ปีที่ผ่านมา มีแรงผลักดันในชุมชนวิชาการเพื่อสร้าง แผ่นข้อมูลสำหรับชุดข้อมูล แผ่นข้อมูลเหล่านี้มีจุดมุ่งหมายเพื่อสร้างการรับรู้ถึงสิ่งที่เป็นและไม่รวมอยู่ในชุดข้อมูล เพื่อให้ทีมสามารถมั่นใจได้ว่าข้อมูลที่พวกเขาใช้นั้นมีจุดประสงค์เพื่อวัตถุประสงค์ของพวกเขาและแสดงถึงฐานผู้ใช้ของพวกเขา การสร้างแผ่นข้อมูลเหล่านี้สำหรับชุดข้อมูลของคุณเองเป็นวิธีที่ยอดเยี่ยมในการสร้างความตระหนักรู้เกี่ยวกับประชากรข้อมูลของคุณ ในทำนองเดียวกัน การทดสอบประสิทธิภาพของแบบจำลองกับประชากรส่วนน้อยก็เป็นสิ่งสำคัญ แบบจำลองที่มีประสิทธิภาพดีกว่าอย่างมีนัยสำคัญในประชากรส่วนใหญ่เมื่อเทียบกับประชากรส่วนน้อย มีแนวโน้มที่จะทำให้เกิดคำถามด้านจริยธรรมขึ้นในอนาคต พบปะผู้คนจากที่ที่พวกเขาอยู่ ไม่ใช่ในที่ที่คุณต้องการให้อยู่

ทีมที่ประสบความสำเร็จประกอบด้วยผู้คน ที่มีความหลากหลายในทุกด้านของชีวิต รวมทั้งอายุ ประสบการณ์ และภูมิหลัง ที่มาพร้อมกับความเข้าใจที่หลากหลายเกี่ยวกับคำถามด้านจริยธรรมเกี่ยวกับ AI ในตอนแรก การวิจัยและวาทกรรมเกี่ยวกับ AI ที่มีความรับผิดชอบเพิ่มขึ้นเรื่อยๆ เต็มไปด้วยคำศัพท์และแนวคิดที่ทุกคนอาจไม่คุ้นเคย บางคนอาจรู้สึกหลงใหลเกี่ยวกับประเด็นความยุติธรรมทางสังคมในขณะที่บางคนอาจไม่เคยได้ยินเรื่องนี้มาก่อน เสียงของทุกคนในทีมสมควรที่จะได้ยินและสร้างภาษาและกรอบการทำงานร่วมกันเพื่อหารือและทำความเข้าใจเป็นสิ่งสำคัญในการสร้าง AI ที่มีจริยธรรม

ใช้เวลาในการค้นคว้าปัญหาและคำถามที่คุณต้องการพูดคุย ทั้งแบบรายบุคคลและแบบทีม ใช้ช่องว่างที่คุณสร้างขึ้นสำหรับการอภิปรายเพื่อช่วยเหลือซึ่งกันและกันในการแกะกล่องและทำความเข้าใจปัญหาและคำถามที่มีอยู่โดยปราศจากวิจารณญาณ การพิจารณาคำศัพท์และแนวคิดหลักจะช่วยให้ทุกคนใช้ภาษาเดียวกันในการพูดคุยเกี่ยวกับแนวคิดเดียวกันได้ การขจัดการสื่อสารที่ผิดพลาดที่อาจเกิดขึ้นจะช่วยให้มีการสนทนาที่สร้างสรรค์มากขึ้นในตอนท้าย เมื่อเราสามารถเรียนรู้ที่จะรับฟังผู้ที่แตกต่างจากเราเมื่อพวกเขาชี้ให้เห็นถึงข้อกังวล เราสามารถแก้ไขปัญหาได้เมื่อเราเห็นพวกเขา มีความกล้าที่จะปรับตัวในขณะที่คุณเรียนรู้

ในขณะที่สิ่งสำคัญคือต้องอยู่ อัปเดตในหัวข้อปัจจุบันในด้านความยุติธรรมทางสังคมและ AI สิ่งสำคัญคือต้องเต็มใจยอมรับสิ่งที่ไม่รู้จัก กระบวนการสู่ AI อย่างมีความรับผิดชอบนั้นเกี่ยวข้องกับการคาดการณ์ถึงการเปลี่ยนแปลง การเปิดรับการเรียนรู้อย่างต่อเนื่อง และการรู้ว่าปัญหาอาจเกิดขึ้นซึ่งไม่มีคำตอบที่ชัดเจน

AI เป็นอุตสาหกรรมที่ดำเนินไปอย่างรวดเร็วและคล่องตัวและพร้อมที่จะเปลี่ยนแนวทางมักจะเป็นส่วนหนึ่งของเกม อย่างไรก็ตาม การเต็มใจที่จะเปลี่ยนแนวทางด้วยเหตุผลด้านจริยธรรม หรือระงับความคืบหน้าในการขจัดอคติของเครื่องมือที่มีให้สำหรับผู้ใช้แล้ว ต้องใช้ความกล้าหาญ ตัวเลือกเหล่านี้มักจะอธิบายได้ยากกว่าการเปลี่ยนแปลงที่ทำขึ้นเพื่อประสิทธิภาพการทำงานหรือผลลัพธ์สุดท้าย เป้าหมายไม่ควรเป็นเพียงการนำเครื่องมือหรือแบบจำลองผ่านไปป์ไลน์การผลิตให้สำเร็จเท่านั้น เป้าหมายควรอยู่ในความล้ำหน้าของนวัตกรรมเทคโนโลยี AI ในขณะที่ทำให้แน่ใจว่าผลิตภัณฑ์สุดท้ายนั้นยุติธรรมและเป็นตัวแทนของโลกที่เราอาศัยอยู่

AI ที่มีความรับผิดชอบเป็นความรับผิดชอบของทุกคน

การสร้างความมั่นใจว่าแบบจำลองถูกสร้างขึ้นเพื่อ ต่อสู้กับความอยุติธรรมแทนที่จะทำให้เป็นอมตะ ความรับผิดชอบร่วมกันของเรา เป็นงานที่ต้องเริ่มต้นในแนวความคิด เป็นส่วนสำคัญของวงจรชีวิตการวิจัยและพัฒนา และดำเนินต่อไปตลอดช่วงการเปิดตัวและส่วนที่เหลือของวงจรชีวิตของผลิตภัณฑ์ ทีมวิทยาศาสตร์ข้อมูลและการวิจัย พร้อมด้วยทีมอื่นๆ ที่มุ่งมั่นที่จะสร้างความมั่นใจว่า AI ที่มีความรับผิดชอบ จะไม่ประสบความสำเร็จหากปราศจากการสนับสนุนระดับผู้บริหาร บริษัทและสถาบันที่มองว่า AI มีความรับผิดชอบเป็นความมุ่งมั่นในระยะยาวและวัดความสำเร็จโดยอิงจากรายได้ที่มากกว่าเพียงแค่รายได้ช่วยให้ทีมของพวกเขาสามารถตอบคำถามและข้อกังวลโดยไม่ต้องกลัวผลที่ตามมา ซึ่งจะช่วยให้เกิดวงจรการไตร่ตรองและการแก้ไขซึ่งจะช่วยตอบคำถามด้านจริยธรรมที่เราถามเกี่ยวกับการสร้างและการใช้ AI จะมีข้อผิดพลาดระหว่างทาง และงานของเราคือไม่หลีกเลี่ยงนวัตกรรมเพื่อปกป้องจากอันตรายที่อาจเกิดขึ้น หน้าที่ของเราคือมองดูความก้าวหน้าของเราด้วยสายตาที่วิพากษ์วิจารณ์ เพื่อที่เราจะได้ทำให้โลกนี้เป็นสถานที่ที่ยุติธรรมมากขึ้น

Micaela Kaplan ได้รับ ปริญญาโทสาขาภาษาศาสตร์คอมพิวเตอร์ที่ Brandeis University หลังจากสำเร็จการศึกษาระดับปริญญาตรีสาขาภาษาศาสตร์และวิทยาการคอมพิวเตอร์ เธอหวังว่าจะทำงานไปสู่โลกที่มีจริยธรรมมากขึ้น ทีละโครงการVentureBeat

  • ภารกิจของ VentureBeat คือการเป็นจัตุรัสกลางเมืองดิจิทัลสำหรับผู้มีอำนาจตัดสินใจด้านเทคนิคเพื่อรับความรู้เกี่ยวกับเทคโนโลยีและการทำธุรกรรมที่เปลี่ยนแปลงได้ ไซต์ของเราให้ข้อมูลที่จำเป็นเกี่ยวกับเทคโนโลยีข้อมูลและกลยุทธ์เพื่อเป็นแนวทางในการเป็นผู้นำองค์กรของคุณ เราขอเชิญคุณเข้าร่วมเป็นสมาชิกชุมชนของเราเพื่อเข้าถึง:

    • ขึ้น -to-date ข้อมูลในเรื่องที่คุณสนใจ
    • จดหมายข่าวของเรา
    • ปิดกั้นเนื้อหาผู้นำทางความคิดและส่วนลดในการเข้าถึงกิจกรรมล้ำค่าของเรา เช่น
    • Transform 2021: เรียนรู้เพิ่มเติม

  • คุณสมบัติเครือข่ายและอื่น ๆ

    กลายเป็นสมาชิก

    • บ้าน
    • ธุรกิจ

  • การดูแลสุขภาพ ไลฟ์สไตล์ เทค โลก

  • อาหาร
  • เกม
  • การท่องเที่ยว
  • Leave a Reply

    Your email address will not be published. Required fields are marked *

    Back to top button