Google จะสามารถรักษาสัญญาเกี่ยวกับการสร้าง AI เชิงจริยธรรม ได้หรือไม่?

ความร่วมมือกับกระทรวงกลาโหมของ Google เพื่อพัฒนาระบบ AI สำหรับกองกำลังรบของกองทัพสหรัฐซึ่งมีชื่อว่า Project Maven ได้พิสูจน์ให้เห็นว่าเป็นดาบสองคมสำหรับ บริษัท ด้านเทคโนโลยีจะสามารถสร้าง AI เชิงจริยธรรม ได้หรือไม่

ในทางตรงกันข้ามความลับของรัฐบาลต่อข่าวที่ว่า Google กำลังช่วยรัฐบาลในการสร้างอาวุธที่มีประสิทธิภาพมากขึ้นคือความไร้ความปราณีอย่างสิ้นเชิง ความอื้อฉาวดังกล่าวทำให้ Google ต้องออกมาและสัญญาว่าจะไม่ต่ออายุข้อตกลงเมื่อเสร็จสิ้นปีหน้า

Google ไม่ใช่คนแปลกหน้ากับภูมิทัศน์ของ AI บริษัท ใช้รูปแบบ AI ที่แตกต่างกันในผลิตภัณฑ์จำนวนหนึ่งจาก Gmail และ Photos ไปยังผู้ช่วยดิจิตอลแบบเรียกเข้าและระบบการสร้างรูปคลื่นเสียงที่ช่วยให้ผู้ช่วยพูดได้ แต่ บริษัท เพียงฝ่ายเดียวที่สามารถยกเลิกหลักเกณฑ์แนวทาง “ไม่เลวร้าย” ของตนเองได้หรือไม่จากการปฏิบัติทั่วไปที่ได้รับความไว้วางใจให้ทำในสิ่งที่ถูกต้องเมื่อยกจิตใจเทียมไปสู่ความเป็นผู้ใหญ่

1. เป็นประโยชน์ต่อสังคม

Sundar Pichai ซีอีโอกูเกิล เขากล่าวว่า “ในขณะที่เราพิจารณาถึงศักยภาพในการพัฒนาและการใช้เทคโนโลยีด้าน AI”  “เราจะคำนึงถึงปัจจัยทางสังคมและเศรษฐกิจที่หลากหลายและจะดำเนินการต่อไปซึ่งเราเชื่อว่าผลประโยชน์โดยรวมจะมากกว่าความเสี่ยงและข้อเสียที่มองไม่เห็นได้ ” เสียงที่ดีและทั้งหมด แต่ที่จริงการตัดสินใจความเสี่ยงที่เกินดุลที่มีแนวโน้มที่จะได้รับประโยชน์? ตัวอย่างเช่นเมื่อวันพุธที่ผ่านมาผู้ถือหุ้นของ บริษัท ปฏิเสธแผนการเพิ่มระดับความหลากหลายของ บริษัท ซึ่งเป็นที่ยอมรับโดยพนักงานอันดับหนึ่งของ Google เราเชื่อหรือไม่ว่าผู้ถือหุ้นรายเดียวกันจะทำหน้าที่ขัดต่อความสนใจในตนเองทางการเงินของตนในการหลีกเลี่ยงข้อผิดพลาดทางสังคม?

2. หลีกเลี่ยงการสร้างหรือเสริมความลำเอียงที่ไม่เป็นธรรม

“เราจะพยายามหลีกเลี่ยงผลกระทบที่ไม่เป็นธรรมต่อผู้คน” Sundar Pichai กล่าว “โดยเฉพาะอย่างยิ่งผู้ที่เกี่ยวข้องกับลักษณะที่ละเอียดอ่อนเช่นเชื้อชาติเพศสัญชาติรายได้รสนิยมทางเพศความสามารถและความเชื่อทางการเมืองหรือศาสนา” หาก Google มีความสามารถในการฝึกอบรม AI โดยไม่ให้อคติโดยนัยพวกเขาเป็นเพียง บริษัท เดียวเท่านั้นที่สามารถทำเช่นนั้นได้

3. สร้างและทดสอบเพื่อความปลอดภัย

“เราจะออกแบบระบบ AI ของเราให้เหมาะสมกับความระมัดระวัง” “และพยายามที่จะพัฒนาพวกเขาให้สอดคล้องกับแนวปฏิบัติที่ดีที่สุดในการวิจัยด้านความปลอดภัยของ AI” นี่เป็นคำสัญญาหนึ่งที่ Google สามารถเก็บไว้ได้อย่างง่ายดาย Project Maven ได้รับใบอนุญาตเป็นโอเพนซอร์สทำให้สามารถแสดงความโปร่งใสได้มากกว่าที่จะเป็นไปได้ ยิ่งไปกว่านั้น Google ยังมีส่วนร่วมกับองค์กรวิจัยเกี่ยวกับ AI หลายแห่งรวมถึงสถาบันวิจัยระบบการทำงานของเครื่องซึ่งมุ่งเน้นเกี่ยวกับกระบวนการความปลอดภัยในการทำงานของ AI และจริยธรรมและสังคมของ DeepMind ซึ่งมุ่งค้นหาหลักจริยธรรมของ AI ตราบเท่าที่ Google ยังคงมุ่งมั่นที่จะแสดงผลงานของตนไม่ใช่ “ก้าวไปข้างหน้าอย่างรวดเร็วและทำลายสถิติ”

4. รับผิดชอบต่อผู้อื่น

“เทคโนโลยี AI ของเราจะอยู่ภายใต้ทิศทางที่เหมาะสมของมนุษย์และการควบคุม” ปัญหาเกี่ยวกับการยืนยันนี้เหมือนกับคลังสินค้าอาวุธนิวเคลียร์ของประเทศของเรา แต่ไม่ใช่เทคโนโลยีที่เป็นปัญหา แต่เป็นคนที่มีอำนาจในการใช้อาวุธนิวเคลียร์

5. รวมหลักการออกแบบที่เป็นส่วนตัว

ระบุว่า Facebook มีอาการป่วยตามเรื่องอื้อฉาวของ Cambridge Analytica แต่ก็ทำให้รู้สึกว่า Google จะพรรณนาถึงตัวเองว่าเป็นข้อมูลส่วนบุคคล แต่น่าเสียดายที่พฤติกรรมทางประวัติศาสตร์ของ Google ไม่ได้ทำอะไรมากในการสนับสนุนการยืนยันดังกล่าว ปัจจุบัน Google กำลังเผชิญกับคดีความในสหราชอาณาจักรเนื่องจากมีการรวบรวมข้อมูลผู้ใช้ส่วนบุคคลผ่านเบราว์เซอร์ Safari วุฒิสมาชิกสหรัฐร้องเรียน FTC เพื่อตรวจสอบการรวบรวมข้อมูลสถานที่ของ บริษัท YouTube ถูกกล่าวหาว่าเก็บรวบรวมข้อมูลเกี่ยวกับเด็กอายุต่ำกว่า 13 ปี

6. ให้ความสำคัญกับมาตรฐานทางวิทยาศาสตร์สูง

“เราปรารถนาที่จะให้มีมาตรฐานทางวิทยาศาสตร์ที่เป็นเลิศในขณะที่เราทำงานเพื่อพัฒนา AI”  “เราจะแบ่งปันความรู้ด้าน AI โดยความรับผิดชอบด้วยการเผยแพร่เอกสารการศึกษาแนวทางปฏิบัติที่ดีที่สุดและการวิจัยที่จะช่วยให้ผู้คนจำนวนมากสามารถพัฒนาแอพพลิเคชัน AI ที่เป็นประโยชน์ได้”

เช่นจุดสามด้านบนนี้ควรจะไม่มีเกมง่ายๆสำหรับ บริษัท ที่จะรักษา ซึ่งแตกต่างจาก บริษัท ที่มีความลับมากเช่น Apple หรือ Facebook Google ให้ความสำคัญกับความพยายามในการวิจัยเป็นอย่างมาก Google ได้เปิดศูนย์การวิจัยเกี่ยวกับ AI ทั่วสหราชอาณาจักรและแคนาดาและได้ให้ความช่วยเหลือแก่นักวิจัยทางวิชาการร่วมกับมหาวิทยาลัยที่มีที่ทำการไปรษณีย์เช่น UC Berkeley Harvard และ MIT และได้ร่วมมือกับ บริษัท ด้านเทคนิคอื่น ๆ เพื่อพัฒนาแนวทางการพัฒนาด้านจริยธรรมเป็นส่วนหนึ่งของ Partnership on AI

7. มีไว้สำหรับการใช้งานที่สอดคล้องกับหลักการเหล่านี้

โดยเฉพาะอย่างยิ่ง Sundar Pichai ยืนยันว่า บริษัท ของเขาจะพัฒนาเฉพาะ AI ที่สอดคล้องกับกรอบจริยธรรมที่กำหนดไว้ในหกประเด็นแรกเท่านั้น เขาสัญญากับ Google ว่า “จะพยายาม จำกัด การใช้งานแอพพลิเคชันที่อาจเป็นอันตรายหรือไม่เหมาะสม” ของเครื่องที่สร้างขึ้นโดยอิงตามลักษณะและการใช้เทคโนโลยีขั้นต้นขนาดที่ตั้งใจไว้และลักษณะการมีส่วนร่วมของ Google ในโครงการ “เทคโนโลยีที่มีวัตถุประสงค์ขัดต่อหลักกฎหมายระหว่างประเทศและสิทธิมนุษยชนที่ได้รับการยอมรับอย่างแพร่หลาย” และคำว่า “ก่อให้เกิดหรือมีแนวโน้มที่จะก่อให้เกิดอันตรายโดยรวม” แน่นอนว่า บริษัท จะเป็นผู้กำหนดสิ่งที่ถือว่าเป็นอันตรายที่ยอมรับได้เช่นเดียวกับจุดที่ 1 ข้างต้น

โดยรวมแล้วนี่คือบางส่วนของหลักการออกเสียงที่ดีในการใช้ชีวิต แต่สิ่งที่ Sundar Pichai ไม่ได้กล่าวถึงก็คือรูปแบบของกลไกการบังคับใช้ใด ๆ ที่จะมีอยู่หรือจะลงโทษ บริษัท ในรูปแบบใดหากไม่ปฏิบัติตามหลักเกณฑ์เหล่านี้

Leave a Reply

Your email address will not be published. Required fields are marked *

%d bloggers like this: