เว็บสล็อตทำไมมันยากมากที่จะทำให้ AI ยุติธรรมและเป็นกลาง

เว็บสล็อตทำไมมันยากมากที่จะทำให้ AI ยุติธรรมและเป็นกลาง

มาเล่นเกมกันหน่อย ลองนึกภาพว่าคุณเป็นนักวิทยาศาสตร์เว็บสล็อตคอมพิวเตอร์ บริษัทของคุณต้องการให้คุณออกแบบเสิร์ชเอ็นจิ้นที่จะแสดงรูปภาพจำนวนมากให้ผู้ใช้เห็นตามคำหลักของพวกเขา ซึ่งคล้ายกับ Google รูปภาพ

ในระดับเทคนิค นั่นเป็นเรื่องง่าย คุณเป็นนักวิทยาศาสตร์คอมพิวเตอร์ที่ยอดเยี่ยม และนี่เป็นเรื่องพื้นฐาน! แต่สมมติว่าคุณอาศัยอยู่ในโลกที่ 90% ของ CEO เป็นผู้ชาย (คล้ายกับโลกของเรา) คุณควรออกแบบเสิร์ชเอ็นจิ้นของคุณเพื่อให้สะท้อนความเป็นจริงนั้นได้อย่างแม่นยำ โดยให้ภาพแบบคนแล้วครั้งเล่าเมื่อผู้ใช้พิมพ์คำว่า “CEO” หรือไม่? หรือเนื่องจากความเสี่ยงที่จะตอกย้ำทัศนคติทางเพศที่ช่วยให้ผู้หญิงไม่อยู่ในกลุ่ม C คุณควรสร้างเครื่องมือค้นหาที่จงใจแสดงส่วนผสมที่สมดุลมากขึ้น แม้ว่าจะไม่ใช่ส่วนผสมที่สะท้อนถึงความเป็นจริงอย่างที่เป็นอยู่ในปัจจุบันก็ตาม

นี่เป็นปัญหาประเภทหนึ่งที่สร้างความเสียหายให้กับชุมชนปัญญาประดิษฐ์ และพวกเราที่เหลือก็เพิ่มมากขึ้นเรื่อยๆ และการแก้ปัญหาจะยากกว่าการออกแบบเสิร์ชเอ็นจิ้นที่ดีกว่ามาก

ภาพปะติดของชายหนุ่มในชุดสูทที่มีธนบัตรร้อยดอลลาร์อยู่ข้างหลังเขา

นักวิทยาศาสตร์คอมพิวเตอร์เคยชินกับการคิดเกี่ยวกับ “อคติ” ในแง่ของความหมายทางสถิติ: โปรแกรมสำหรับการคาดคะเนจะมีความลำเอียงหากผิดอย่างสม่ำเสมอในทิศทางเดียวหรืออีกทางหนึ่ง (ตัวอย่างเช่น หากแอพพยากรณ์อากาศประเมินความน่าจะเป็นของฝนสูงไปเสมอ การคาดคะเนของแอปนั้นมีความเอนเอียงทางสถิติ) ชัดเจนมาก แต่ก็แตกต่างอย่างมากจากวิธีที่คนส่วนใหญ่ใช้คำว่า “อคติ” ในทางปาก ซึ่งคล้ายกับ “อคติ” มากกว่า กับกลุ่มหรือลักษณะเฉพาะบางอย่าง”

ปัญหาคือว่าหากค่าเฉลี่ยของทั้งสองกลุ่มมีความแตกต่างกันที่คาดการณ์ได้ คำจำกัดความทั้งสองนี้จะขัดแย้งกัน หากคุณออกแบบเสิร์ชเอ็นจิ้นของคุณให้คาดการณ์อย่างเป็นกลางทางสถิติเกี่ยวกับการแบ่งแยกเพศของซีอีโอ จะต้องมีอคติในความหมายที่สองของคำนั้น และถ้าคุณออกแบบไม่ให้คำทำนายสัมพันธ์กับเพศ ก็จะต้องมีอคติในความหมายทางสถิติ

แล้วต้องทำอย่างไร? คุณจะแก้ไขการประนีประนอมอย่างไร? เก็บคำถามนี้ไว้ในใจเพราะเราจะกลับมาที่นี่ในภายหลัง

ขณะที่คุณกำลังเคี้ยวอยู่ ให้พิจารณาข้อเท็จจริงที่ว่าเช่นเดียวกับที่ไม่มีคำจำกัดความของอคติ ไม่มีคำจำกัดความของความยุติธรรม ความเป็นธรรมสามารถมีความหมายที่แตกต่างกันมากมาย — อย่างน้อย 21 ความหมายที่แตกต่างกันโดยนักวิทยาศาสตร์คอมพิวเตอร์คนหนึ่ง — และความหมายเหล่านั้นบางครั้งก็มีความตึงเครียดซึ่งกันและกัน

“ขณะนี้เราอยู่ในช่วงวิกฤต ซึ่งเราขาดความสามารถทางจริยธรรมในการแก้ปัญหานี้” John Basl นักปรัชญาจากมหาวิทยาลัย Northeastern ที่เชี่ยวชาญด้านเทคโนโลยีเกิดใหม่กล่าว

แล้วผู้เล่นรายใหญ่ในพื้นที่เทคโนโลยีหมายความว่าอย่างไร จริงๆ แล้ว เมื่อพวกเขากล่าวว่าพวกเขาสนใจเกี่ยวกับการสร้าง AI ที่ยุติธรรมและเป็นกลาง องค์กรใหญ่ๆ เช่น Google, Microsoft, แม้แต่กระทรวงกลาโหมก็ออกแถลงการณ์ค่านิยมเป็นระยะ ซึ่งบ่งบอกถึงความมุ่งมั่นของพวกเขาในการบรรลุเป้าหมายเหล่านี้ แต่พวกเขามักจะมองข้ามความเป็นจริงพื้นฐาน: แม้แต่นักพัฒนา AI ที่มีเจตนาดีที่สุดก็อาจต้องเผชิญกับการแลกเปลี่ยนโดยธรรมชาติ ซึ่งการเพิ่มความยุติธรรมประเภทหนึ่งให้สูงสุดย่อมหมายถึงการเสียสละอีกประเภทหนึ่ง

ประชาชนไม่สามารถเพิกเฉยต่อปริศนานั้นได้

 เป็นประตูดักใต้เทคโนโลยีที่หล่อหลอมชีวิตประจำวันของเรา ตั้งแต่การให้ยืมอัลกอริทึมไปจนถึงการจดจำใบหน้า และขณะนี้มีนโยบายที่ว่างเปล่าเมื่อพูดถึงวิธีที่บริษัทต่างๆ ควรจัดการกับปัญหาที่เกี่ยวกับความเป็นธรรมและอคติ

“มีอุตสาหกรรมที่ต้องรับผิดชอบ” เช่น อุตสาหกรรมยา Timnit Gebru นักวิจัยด้านจริยธรรม AI ชั้นนำซึ่งมีรายงานว่าถูกไล่ออกจาก Google ในปี 2020 และได้เริ่มสถาบันใหม่สำหรับการวิจัย AI กล่าว “ก่อนที่คุณจะออกสู่ตลาด คุณต้องพิสูจน์ให้เราเห็นว่าคุณไม่ทำ X, Y, Z ไม่มีสิ่งดังกล่าวสำหรับบริษัท [เทคโนโลยี] เหล่านี้ ดังนั้นพวกเขาจึงสามารถวางมันไว้ที่นั่นได้”

นั่นทำให้การเข้าใจอัลกอริธึมที่อาจส่งผลต่อชีวิตของเรามีความสำคัญมากขึ้นและอาจควบคุมได้ มาดูตัวอย่างการใช้งานจริงสามตัวอย่างเพื่อแสดงให้เห็นว่าเหตุใดจึงเกิดการแลกเปลี่ยนความเป็นธรรม จากนั้นจึงสำรวจวิธีแก้ปัญหาที่เป็นไปได้

Timnit Gebru นักวิทยาศาสตร์การวิจัยของ Google AI พูดบนเวทีที่ TechCrunch Disrupt SF 2018 ในซานฟรานซิสโก แคลิฟอร์เนีย รูปภาพ Kimberly White / Getty สำหรับ TechCrunch

คุณจะตัดสินใจว่าใครควรได้รับเงินกู้?

นี่เป็นอีกหนึ่งการทดลองทางความคิด สมมติว่าคุณเป็นเจ้าหน้าที่ธนาคาร และงานส่วนหนึ่งของคุณคือการให้เงินกู้ คุณใช้อัลกอริธึมเพื่อช่วยให้คุณทราบว่าคุณควรให้กู้ยืมเงินแก่ใคร โดยอิงจากแบบจำลองการคาดการณ์ โดยส่วนใหญ่พิจารณาจากคะแนนเครดิต FICO เกี่ยวกับแนวโน้มที่จะจ่ายคืน คนส่วนใหญ่ที่มีคะแนน FICO สูงกว่า 600 ได้รับเงินกู้ ส่วนใหญ่ที่ต่ำกว่าคะแนนนั้นไม่ได้

ความยุติธรรมประเภทหนึ่งที่เรียกว่าความเป็นธรรมตามขั้นตอน จะถือว่าอัลกอริทึมนั้นยุติธรรมหากขั้นตอนที่ใช้ในการตัดสินใจนั้นยุติธรรม ซึ่งหมายความว่าจะตัดสินผู้สมัครทั้งหมดตามข้อเท็จจริงที่เกี่ยวข้อง เช่น ประวัติการชำระเงิน ด้วยข้อเท็จจริงชุดเดียวกัน ทุกคนก็จะได้รับการรักษาเหมือนกัน

โดยไม่คำนึงถึงลักษณะส่วนบุคคลเช่นเชื้อชาติ จากการวัดนั้น อัลกอริธึมของคุณทำงานได้ดี

แต่สมมุติว่าสมาชิกของกลุ่มเชื้อชาติกลุ่มหนึ่งมีแนวโน้มที่จะมีคะแนน FICO สูงกว่า 600 ในทางสถิติและสมาชิกของกลุ่มอื่นมีโอกาสน้อยกว่ามาก ซึ่งเป็นความไม่เท่าเทียมกันซึ่งมีรากฐานมาจากความไม่เสมอภาคทางประวัติศาสตร์และนโยบาย เช่น การขีดเส้นใหม่ว่าอัลกอริธึมของคุณไม่ทำอะไรเลย เข้าบัญชี.

แนวคิดอีกอย่างหนึ่งของความเป็นธรรมที่เรียกว่าความเป็นธรรมแบบกระจาย (distributive fairness) กล่าวว่าอัลกอริธึมนั้นยุติธรรมหากนำไปสู่ผลลัพธ์ที่ยุติธรรม ด้วยการวัดนี้ อัลกอริธึมของคุณล้มเหลว เนื่องจากคำแนะนำดังกล่าวมีผลกระทบที่แตกต่างกันต่อกลุ่มเชื้อชาติหนึ่งกับอีกกลุ่มหนึ่ง

คุณสามารถแก้ไขปัญหานี้ได้โดยให้การรักษาแยกกลุ่มต่างๆ

 สำหรับกลุ่มหนึ่ง คุณจะตัดคะแนน FICO ที่ 600 ในขณะที่อีกกลุ่มหนึ่งเท่ากับ 500 คุณต้องแน่ใจว่าได้ปรับกระบวนการของคุณเพื่อรักษาความเป็นธรรมในการกระจาย แต่คุณต้องเสียความยุติธรรมตามขั้นตอน

Gebru กล่าวว่านี่เป็นวิธีที่สมเหตุสมผล คุณสามารถนึกถึงการตัดคะแนนที่แตกต่างกันเป็นรูปแบบหนึ่งของการชดเชยความอยุติธรรมในอดีต “คุณควรได้รับการชดใช้สำหรับผู้ที่บรรพบุรุษต้องต่อสู้เพื่อรุ่นต่อรุ่น แทนที่จะลงโทษพวกเขาต่อไป” เธอกล่าว พร้อมเสริมว่านี่เป็นคำถามเชิงนโยบายที่ท้ายที่สุดแล้วจะต้องได้รับข้อมูลจากผู้เชี่ยวชาญด้านนโยบายหลายคนในการตัดสินใจ ไม่ใช่แค่คนในวงการเทคโนโลยี โลก.

Julia Stoyanovich ผู้อำนวยการ NYU Center for Responsible AI เห็นพ้องต้องกันว่าควรมีการตัดคะแนน FICO ที่แตกต่างกันสำหรับกลุ่มเชื้อชาติต่างๆ เพราะ “ความไม่เท่าเทียมกันที่นำไปสู่จุดการแข่งขันจะผลักดันประสิทธิภาพ [ของพวกเขา] ณ จุดแข่งขัน” แต่เธอบอกว่าวิธีการนั้นยากกว่าที่คิด คุณต้องรวบรวมข้อมูลเกี่ยวกับเชื้อชาติของผู้สมัคร ซึ่งเป็นลักษณะเฉพาะที่ได้รับการคุ้มครองตามกฎหมาย

ยิ่งไปกว่านั้น ไม่ใช่ทุกคนที่เห็นด้วยกับค่าชดเชย ไม่ว่าจะเป็นเรื่องของนโยบายหรือการกำหนดกรอบ เช่นเดียวกับเรื่องอื่นๆ ใน AI นี่เป็นคำถามด้านจริยธรรมและการเมืองมากกว่าคำถามเชิงเทคโนโลยีล้วนๆ และไม่ชัดเจนว่าใครควรได้รับคำตอบ

ที่เกี่ยวข้อง

10 สิ่งที่เราทุกคนควรเรียกร้องจาก Big Tech ในตอนนี้

คุณเคยใช้การจดจำใบหน้าในการเฝ้าระวังของตำรวจหรือไม่?

รูปแบบหนึ่งของอคติ AI ที่ได้รับความสนใจอย่างมากอย่างถูกต้องคือรูปแบบที่ปรากฏขึ้นซ้ำๆ ในระบบจดจำใบหน้า โมเดลเหล่านี้สามารถระบุใบหน้าชายผิวขาวได้อย่างดีเยี่ยม เนื่องจากเป็นใบหน้าที่พวกเขาได้รับการฝึกฝนมาเป็นอย่างดี แต่ชื่อเสียงของพวกเขาไม่ดีนักที่จำคนผิวคล้ำได้ โดยเฉพาะผู้หญิง ที่สามารถนำไปสู่ผลที่เป็นอันตราย

ตัวอย่างแรกเกิดขึ้นในปี 2015 เมื่อวิศวกรซอฟต์แวร์ชี้ให้เห็นว่าระบบการจดจำภาพของ Google ได้ระบุว่าเพื่อนผิวดำของเขาเป็น “กอริลล่า” อีกตัวอย่างหนึ่งเกิดขึ้นเมื่อ Joy Buolamwini นักวิจัยด้านความเป็นธรรมของอัลกอริทึมที่ MIT พยายามจดจำใบหน้าด้วยตัวเอง และพบว่าเธอไม่รู้จักเธอซึ่งเป็นผู้หญิงผิวสี จนกระทั่งเธอสวมหน้ากากสีขาวบนใบหน้าของเธอ ตัวอย่างเหล่านี้เน้นย้ำถึงความล้มเหลวของการจดจำใบหน้าในการบรรลุความเป็นธรรมประเภทอื่น นั่นคือ ความเป็นธรรมในการแสดงออก

Kate Crawford นักวิชาการด้านจริยธรรม AI กล่าวว่าการละเมิดความเป็นธรรมในการเป็นตัวแทนเกิดขึ้น “เมื่อระบบสนับสนุนการอยู่ใต้บังคับบัญชาของกลุ่มบางกลุ่มตามแนวอัตลักษณ์” ไม่ว่าจะเป็นเพราะระบบดูหมิ่นกลุ่มอย่างชัดเจน สร้างภาพเหมารวมกลุ่ม หรือล้มเหลวในการรับรู้กลุ่ม ดังนั้น ทำให้มองไม่เห็น

เพื่อแก้ไขปัญหาเกี่ยวกับระบบจดจำใบหน้า นักวิจารณ์บางคนได้โต้แย้งถึงความจำเป็นในการ “หักล้าง” พวกเขาโดยยกตัวอย่างเช่น การฝึกอบรมพวกเขาเกี่ยวกับชุดข้อมูลใบหน้าที่หลากหลายมากขึ้น แต่ในขณะที่ข้อมูลที่หลากหลายมากขึ้นควรทำให้ระบบสามารถระบุใบหน้าทุกประเภทได้ดีขึ้น นั่นไม่ใช่ปัญหาเดียว เนื่องจากมีการใช้การจดจำใบหน้ามากขึ้นในการเฝ้าระวังของตำรวจ ซึ่งกำหนดเป้าหมายคนผิวสีอย่างไม่เป็นสัดส่วน ระบบที่สามารถระบุคนผิวดำได้ดีกว่าอาจส่งผลให้เกิดผลลัพธ์ที่ไม่ยุติธรรมมากขึ้น

ตามที่นักเขียน Zoé Samudzi ระบุไว้ในปี 2019 ที่ Daily Beast “ในประเทศที่การป้องกันอาชญากรรมเชื่อมโยงความมืดเข้ากับอาชญากรรมโดยธรรมชาติ … มันไม่ใช่ความก้าวหน้าทางสังคมที่จะทำให้คนผิวดำมองเห็นได้เท่าเทียมกับซอฟต์แวร์ที่จะเป็นอาวุธต่อต้านเราอย่างหลีกเลี่ยงไม่ได้ ”

นี่เป็นข้อแตกต่างที่สำคัญ: การดูแลให้ระบบ AI ทำงานได้ดีกับทุกคนไม่ได้หมายความว่าระบบจะทำงานได้ดีสำหรับทุกคน เราไม่ต้องการรับความเป็นธรรมในการแสดงออกโดยแลกกับความเป็นธรรมในการกระจาย

แล้วเราควรทำอย่างไรแทน? สำหรับผู้เริ่มต้น เราต้องแยกความแตกต่างระหว่างการวิเคราะห์เชิงลึกและเชิงลึกที่ลดอันตรายที่แตกต่างกันในโลกแห่งความเป็นจริง และเราจำเป็นต้องยอมรับว่าหากสิ่งหลังคือสิ่งที่เราสนใจจริง ๆ มากกว่า มันอาจจะตามมาว่าเราไม่ควรใช้เทคโนโลยีการจดจำใบหน้า อย่างน้อยก็ไม่ใช่สำหรับการเฝ้าระวังของตำรวจ

“มันไม่เกี่ยวกับ ‘สิ่งนี้ควรจดจำทุกคนอย่างเท่าเทียมกัน’” Gebru กล่าว “นั่นเป็นเรื่องรอง สิ่งแรกคือ เรากำลังทำอะไรกับเทคโนโลยีนี้ และมันควรจะมีอยู่จริงหรือไม่”

เธอเสริมว่า “มันควรจะมีอยู่จริงหรือ?เว็บสล็อต