Tech

วิธีทำให้ AI มีจริยธรรมมากขึ้น

Transform Technology Summits เริ่มต้นวันที่ 13 ตุลาคมด้วย Low-Code/No Code: เปิดใช้งาน Enterprise Agility สมัครตอนนี้!


ล่าสุด การศึกษาวิจัย Pew พบว่าผู้เชี่ยวชาญและผู้สนับสนุนส่วนใหญ่กังวลว่า AI จะยังคงมุ่งเน้นไปที่การเพิ่มประสิทธิภาพผลกำไรและการควบคุมทางสังคม และไม่น่าจะพัฒนาพื้นฐานทางจริยธรรมภายในทศวรรษหน้า และใน การศึกษาเชิงวิชาการ เมื่อต้นปีนี้ นักวิจัยจาก Cornell และ University of Pennsylvania พบว่า 2 ใน 3 ของนักวิจัยแมชชีนเลิร์นนิ่งระบุว่า ความปลอดภัยของ AI ควรให้ความสำคัญมากกว่าที่เป็นอยู่ในปัจจุบัน พวกเขายังพบว่าผู้คนเต็มใจที่จะให้ความไว้วางใจใน AI เมื่อได้รับการสนับสนุนจากหน่วยงานระหว่างประเทศที่มีอยู่เช่นสหประชาชาติหรือสหภาพยุโรป

ความกังวลเหล่านี้บางส่วนขึ้นอยู่กับ โมเดล AI รุ่นแรกที่แสดงอคติโดยไม่ได้ตั้งใจ ตัวอย่างเช่น อัลกอริธึมของ Twitter สำหรับการครอบตัดตัวอย่างภาพแบบเลือกได้แสดงอคติที่ชัดเจนสำหรับบางกลุ่ม (Twitter ในภายหลัง ประเมินอย่างอิสระ อัลกอริทึมและตัดสินใจถอดออก) ความลำเอียงที่คล้ายกันนี้ไม่ได้พบเฉพาะในการมองเห็นด้วยคอมพิวเตอร์เท่านั้น แต่ยังพบในแทบทุกโดเมนของการเรียนรู้ด้วยเครื่อง

เราได้เห็นความพยายามครั้งล่าสุดหลายครั้งในการแก้ไขปัญหาดังกล่าว ปีที่แล้ว กระทรวงกลาโหมได้เผยแพร่หลักการ AI 5 ประการ โดยแนะนำว่าเทคโนโลยี AI ควรมีความรับผิดชอบ เท่าเทียมกัน , ตรวจสอบย้อนกลับ, เชื่อถือได้และควบคุมได้ Google, Zendesk และ Microsoft ยังได้ออกแนวทางปฏิบัติ โดยเสนอกรอบงานในการเข้าถึง เป้าหมายที่ทะเยอทะยานเกี่ยวกับการพัฒนา AI อย่างมีจริยธรรม ทั้งหมดนี้เป็นจุดเริ่มต้นที่ดี

AI ด้านจริยธรรมยังคงอยู่ การเริ่มต้น แต่มีความสำคัญมากขึ้นสำหรับบริษัทในการดำเนินการ ทีมของฉันเข้าถึง AI ที่มีจริยธรรมจากมุมมองของหลักการแรกและเสริมด้วยการวิจัยจากผู้เล่นคนอื่นๆ เราใช้หลักการเหล่านี้ในขณะที่เราพัฒนากรอบงาน AI ที่มีจริยธรรมของเราเอง และหวังว่าสิ่งเหล่านี้จะเป็นประโยชน์กับทีมอื่นๆ:

1. ระบุปัญหาที่คุณพยายามแก้ไขและระบุศักยภาพของอคติ

ก้าวแรกสู่การพัฒนาจริยธรรม AI แสดงให้เห็นอย่างชัดเจนถึงปัญหาที่คุณพยายามแก้ไข หากคุณกำลังพัฒนาอัลกอริธึมการให้คะแนนเครดิต เช่น ร่างโครงร่างให้ชัดเจนว่าคุณต้องการให้อัลกอริทึมของคุณระบุอะไรเกี่ยวกับผู้สมัคร และเน้นจุดข้อมูลที่อาจนำไปสู่อคติโดยไม่ได้ตั้งใจ (เช่น ตัวกวนทางเชื้อชาติตามสถานที่ที่ใครบางคนอาศัยอยู่) . นี่ยังหมายถึงการทำความเข้าใจวิศวกรอคติโดยนัยหรือผู้จัดการผลิตภัณฑ์ที่อาจเกิดขึ้น และทำให้มั่นใจว่าอคติเหล่านี้จะไม่ถูกประดิษฐานอยู่ในโค้ด วิธีหนึ่งในการระบุอคติในขั้นตอนการออกแบบคือการมีส่วนร่วมกับสมาชิกในทีมที่มีมุมมองที่หลากหลายตั้งแต่เริ่มต้น ทั้งในแง่ของหน้าที่ทางธุรกิจ (เช่น กฎหมาย ผลิตภัณฑ์ และการตลาด) และในแง่ของประสบการณ์และภูมิหลังของตนเอง 2. ทำความเข้าใจชุดข้อมูลและแบบจำลองพื้นฐานของคุณ

เมื่อคุณระบุปัญหาและระบุความเป็นไปได้ของอคติได้แล้ว คุณควร ศึกษาอคติเชิงปริมาณโดยการปลูกฝังกระบวนการเพื่อวัดความหลากหลายในชุดข้อมูลและประสิทธิภาพของแบบจำลองในกลุ่มที่สนใจ นี่หมายถึงการสุ่มตัวอย่างข้อมูลการฝึกอบรมเพื่อให้แน่ใจว่าแสดงถึงกลุ่มที่น่าสนใจอย่างเป็นธรรม และการแบ่งกลุ่มประสิทธิภาพของแบบจำลองตามกลุ่มความสนใจเหล่านี้ เพื่อให้แน่ใจว่าคุณจะไม่เห็นประสิทธิภาพที่ลดลงสำหรับบางกลุ่ม ตัวอย่างเช่น เมื่อพัฒนาโมเดลการมองเห็นด้วยคอมพิวเตอร์ เช่น อัลกอริธึมการตรวจจับความรู้สึก ให้ถามตัวเองว่า: พวกเขาทำงานได้ดีพอๆ กันสำหรับทั้งชายและหญิงหรือไม่ สำหรับโทนสีผิวและวัยต่างๆ? สิ่งสำคัญคือต้องเข้าใจการสร้างชุดข้อมูลของคุณและอคติใดๆ ที่อาจนำมาใช้โดยไม่ได้ตั้งใจทั้งในการฝึกอบรมหรือในการผลิต 3. มีความโปร่งใสและเข้าถึงได้

ทีม AI ควรพยายามทำความเข้าใจโมเดล AI ของตนให้ดีขึ้นและแบ่งปันความเข้าใจนั้นอย่างโปร่งใสกับ ผู้มีส่วนได้ส่วนเสียที่ถูกต้อง สิ่งนี้อาจมีหลายมิติ แต่ควรเน้นที่สิ่งที่โมเดล AI ของคุณสามารถทำได้และไม่สามารถทำได้เป็นหลัก และบนชุดข้อมูลพื้นฐานที่สร้างขึ้น พิจารณาระบบผู้แนะนำเนื้อหา: คุณช่วยบอกได้ไหมว่าต้องใช้ข้อมูลมากน้อยเพียงใดก่อนที่จะสามารถแสดงคำแนะนำที่เกี่ยวข้องให้กับลูกค้าของคุณได้ ต้องมีขั้นตอนใดบ้างในการลดการขยายมุมมองและการทำให้ประสบการณ์ของผู้ใช้เป็นเนื้อเดียวกัน ยิ่งคุณเข้าใจเทคโนโลยี AI พื้นฐานที่คุณกำลังสร้างมากเท่าใด คุณก็จะสามารถอธิบายให้ผู้ใช้และทีมอื่นๆ ทราบภายในองค์กรได้อย่างโปร่งใสมากขึ้นเท่านั้น Google ได้ให้ตัวอย่างที่ดีของสิ่งนี้ด้วย โมเดลการ์ด — คำอธิบายง่ายๆ ของ AI โมเดลที่อธิบายเวลาที่โมเดลทำงานได้ดีที่สุด (และเมื่อโมเดลไม่ทำงาน)

อีกองค์ประกอบหนึ่งของความโปร่งใสคือการทำให้ AI เข้าถึงทุกคนได้ แม้กระทั่งผู้ที่ไม่ได้ใช้เทคนิค เชี่ยวชาญในการเรียนรู้ของเครื่องหรือสถิติ นี่หมายถึงการเขียนเนื้อหา เช่น การ์ดโมเดลด้วยคำศัพท์ที่เข้าถึงได้ และให้คำอธิบายง่ายๆ ว่าอัลกอริทึม AI เช่น Convolutional Neural Network ทำงานอย่างไร (โดยไม่ต้องเจาะลึกลงไปในวิศวกรรมหรือความซับซ้อนทางคณิตศาสตร์)

4. พัฒนากระบวนการตรวจสอบเพื่อปลูกฝังความเข้มงวด

AI ที่มีจริยธรรมไม่ใช่ความรับผิดชอบของผลิตภัณฑ์และทีมวิศวกรเพียงคนเดียว กลุ่มต่างๆ ทั่วทั้งบริษัทควรให้ความสำคัญกับโครงการ AI และดำเนินการอย่างเป็นระบบ นี่หมายถึงการพัฒนากระบวนการเพื่อให้แน่ใจว่ามีความถูกต้องตามหลักจริยธรรมในโครงการ AI และระบุปัญหาต่างๆ โดยเร็วที่สุด วิธีหนึ่งในการบรรลุเป้าหมายนี้คือให้หน่วยงานอิสระอย่างน้อยหนึ่งหน่วยงานตรวจสอบผลิตภัณฑ์ AI เมื่อยังอยู่ในขั้นตอนการออกแบบ แล้วจึงค่อยตรวจสอบอีกครั้งในวงจรชีวิต เราฝึกฝนสิ่งนี้ที่บริษัทของฉันผ่านคณะกรรมการความเป็นส่วนตัวและจริยธรรมข้ามสายงาน และคณะอนุกรรมการ AI ด้านจริยธรรมที่แยกต่างหาก กลุ่มเหล่านี้ช่วยเรากำหนดหลักการและขั้นตอนทางจริยธรรมขององค์กร ตลอดจนประเมินแนวคิดผลิตภัณฑ์เพื่อให้คำแนะนำที่เป็นรูปธรรมเกี่ยวกับการพัฒนา AI อย่างมีจริยธรรม 5. รับรองความปลอดภัยและความเป็นส่วนตัวของข้อมูลลูกค้า

สุดท้ายนี้ เช่นเดียวกับโครงการข้อมูลใดๆ ทีม AI ควรดำเนินการด้วย ความเป็นส่วนตัวและความปลอดภัยความคิดแรก ซึ่งหมายความว่าความพยายามของ AI เป็นไปตามแนวทางภายในทั้งหมดเกี่ยวกับความเป็นส่วนตัวและความปลอดภัยของข้อมูล และดำเนินการต่อไปเมื่อมีข้อมูลที่ละเอียดอ่อนโดยเฉพาะ (เช่น ข้อมูลส่วนบุคคลที่ระบุตัวบุคคลนั้นได้หรือข้อมูลการมองเห็น)

การรักษาความเป็นส่วนตัวยังหมายถึงการมีขั้นตอนสำหรับอัลกอริทึมและข้อมูลที่คุณจัดเก็บและแชร์ ทั้งภายในและภายนอก ตัวอย่างเช่น หากการจดจำใบหน้ามีความสำคัญต่อคุณลักษณะ AI ที่คุณกำลังสร้าง เป็นสิ่งสำคัญที่จะต้องพิจารณาว่าคุณจัดเก็บข้อมูลจุดสังเกตบนใบหน้าและใครบ้างที่สามารถเข้าถึงข้อมูลนี้และใครบ้าง สำหรับข้อมูลที่ละเอียดอ่อน ควรเป็นเพียงทีมวิศวกรที่ทำงานทันทีในฟีเจอร์นี้ (และแม้จะสามารถทำได้ด้วยการตรวจสอบเพื่อป้องกันการใช้ในทางที่ผิด)

มองไปสู่อนาคต

ในขณะที่ AI มีความก้าวหน้าทางเทคนิคอย่างมากในช่วงไม่กี่ปีที่ผ่านมา เรายังอยู่ในช่วงเริ่มต้นของการกำหนดรากฐานสำหรับ AI ที่มีจริยธรรม มีวิธีที่จับต้องได้ซึ่งเราสามารถก้าวหน้าไปสู่ ​​AI ที่มีจริยธรรมได้ในระยะใกล้ เมื่อเวลาผ่านไป เราจะต้องพัฒนาวิธีการที่ครอบคลุมและเป็นระบบมากขึ้นเรื่อยๆ เพื่อฝังหลักการออกแบบที่มีจริยธรรมไว้ในโครงสร้างของการพัฒนา AI ในท้ายที่สุด นี่จะเป็นข้อกำหนดสำหรับ AI ในการมอบผลประโยชน์ที่แข็งแกร่งที่สุดให้กับสังคมโดยรวม

Ali Akhtar เป็นหัวหน้าฝ่ายข้อมูลขนาดใหญ่และเครื่องจักร เรียนที่ Samsara.

  • VentureBeat

    ภารกิจของ VentureBeat คือ เพื่อเป็นจัตุรัสกลางเมืองดิจิทัลสำหรับผู้มีอำนาจตัดสินใจด้านเทคนิคเพื่อรับความรู้เกี่ยวกับเทคโนโลยีการเปลี่ยนแปลงและการทำธุรกรรม ไซต์ของเราให้ข้อมูลที่จำเป็นเกี่ยวกับเทคโนโลยีข้อมูลและกลยุทธ์เพื่อเป็นแนวทางในการเป็นผู้นำองค์กรของคุณ เราขอเชิญคุณเข้าร่วมเป็นสมาชิกชุมชนของเราเพื่อเข้าถึง:

    • ข้อมูลล่าสุดเกี่ยวกับเรื่องที่คุณสนใจ

    • จดหมายข่าวของเรา
    • เนื้อหาเกี่ยวกับผู้นำทางความคิดและการเข้าถึงแบบมีส่วนลด กับกิจกรรมล้ำค่าของเรา เช่น แปลง 2021 : เรียนรู้เพิ่มเติม

    • คุณสมบัติเครือข่ายและอื่น ๆ
    • กลายเป็นสมาชิก

        บ้าน ธุรกิจ ดูแลสุขภาพ

      • ไลฟ์สไตล์
      • เทค

    • โลก
    • อาหาร

    • เกม
    • การท่องเที่ยว

      Leave a Reply

      Your email address will not be published. Required fields are marked *

      Back to top button