นักวิทยาศาสตร์กำลังสร้าง พื้นฐานสำหรับ AI ที่มีความรู้สึกมากขึ้น

AI ทำให้เราเผชิญหน้ากับความคิดที่ดีว่ามันหมายถึงการเป็นมนุษย์อย่างไร ไปจนถึงว่ากลัวความรู้สึกของ AI แม้ Elon Musk กังวลเกี่ยวกับสิ่งที่ AI จะมีความสามารถ บางที พื้นฐานสำหรับ AI ที่มีสติจะไม่เป็นอันตรายต่อมนุษย์เพราะมันจะเอาใจใส่กับเราดีกว่าอัลกอริทึมที่เคยทำได้ และในขณะที่ AI ยังคงพัฒนาที่น่าตื่นตาตื่นใจอยู่ กล่าวได้ว่านักวิทยาศาสตร์กำลังผนวกคุณลักษณะและลักษณะเฉพาะที่หุ่นยนต์เข้าใกล้ความรู้สึกมากขึ้น และการรับรู้ความสามารถของตนเอง

หนึ่งในลักษณะพื้นฐานที่สุดของจิตสำนึกคือความตระหนักในตัวตน การรับรู้ด้วยตนเองในตัวเองไม่ได้บ่งบอกถึงความรู้สึกหรือความรู้สึก แต่เป็นลักษณะสำคัญที่ทำให้ AI หรือหุ่นยนต์ดูเป็นธรรมชาติมากขึ้นและมีชีวิตอยู่ และนี่ไม่ใช่นิยายวิทยาศาสตร์อย่างใดอย่างหนึ่ง เรามี AI อยู่แล้วซึ่งสามารถสร้างความตระหนักรู้ในเบื้องต้นได้ภายในสภาพแวดล้อมของตน

ไม่นานมานี้ Deep Mind ของ Google ได้สร้างคลื่นขึ้นมาเพื่อการเรียนรู้แบบอินทรีย์โดยการเดิน แต่เทคโนโลยีเป็นสิ่งที่น่าประทับใจจริงๆ แทนที่จะสอนให้เดินโปรแกรมเมอร์สามารถเปิดใช้งานเครื่องเพื่อปรับทิศทางตัวเองและสัมผัสวัตถุรอบตัวได้ในแนวนอน จากที่นั่น AI ได้สอนตัวเองให้เดินข้ามภูมิประเทศแบบต่างๆเช่นเดียวกับเด็กที่กำลังเดินไปมา

ร่างกายของ Deep Mind เสมือนจริง แต่ Hod Lipson จากมหาวิทยาลัย Columbia ได้พัฒนาหุ่นยนต์แมงมุมที่ลัดเลาะไปตามพื้นที่ทางกายภาพในลักษณะเดียวกัน หุ่นยนต์จะตรวจจับสภาพแวดล้อมโดยรอบ หากนักวิจัยเพิ่มหรือถอดขาเครื่องจะใช้ความรู้เพื่อปรับตัวและเรียนรู้ใหม่

หนึ่งในข้อ จำกัด ที่ยิ่งใหญ่ที่สุดสำหรับ AI คือมันมักไม่สามารถกำหนดปัญหาให้ตัวเองได้ เป้าหมาย AI ถูกกำหนดโดยผู้สร้างสรรค์ของมนุษย์โดยทั่วไปแล้วนักวิจัยก็จะฝึกเครื่องเพื่อบรรลุวัตถุประสงค์เฉพาะดังกล่าว เนื่องจากเรามักจะออกแบบ AI เพื่อดำเนินงานบางอย่างโดยไม่ต้องคิดริเริ่มในการกำหนดเป้าหมายใหม่ ๆ คุณอาจไม่ต้องกังวลกับหุ่นยนต์ที่เป็นคนโกงและเป็นทาส แต่อย่ารู้สึกปลอดภัยเกินไปเพราะนักวิทยาศาสตร์กำลังทำงานเพื่อช่วยเหลือบอทและบรรลุเป้าหมายใหม่

นักวิทยาศาสตร์มีขั้นตอนที่ใกล้เคียงกับการบรรลุปัญญาประดิษฐ์ที่ดีที่สุดคนหนึ่งที่มีสติและมีสติเช่นเดียวกับมนุษย์ การก้าวกระโดดดังกล่าวเป็นเรื่องที่ถกเถียงกันเกี่ยวกับจริยธรรมและมีการถกเถียงกันอยู่ว่าจะเกิดขึ้นเมื่อใดและเมื่อใดเราจะต้องสร้างกฎหมายเพื่อปกป้องหุ่นยนต์ด้วยสิทธิมนุษยชน นักวิทยาศาสตร์ยังตั้งข้อสงสัยว่าควรทดสอบความรู้สึก AI อย่างไรโดยเปลี่ยนเครื่อง Voight-Kampff ซึ่งเป็นสัญลักษณ์ของ Blade Runner เป็นเครื่องทำ polygraph สำหรับหุ่นยนต์สู่ความเป็นจริง

กลยุทธ์หนึ่งในการทดสอบสติคือการทดสอบความมีสติ AI ที่เสนอโดยซูซานชไนเดอร์และเอ็ดวินเทอร์เนอร์ มันเหมือนกับการทดสอบทัวริง แต่แทนที่จะทดสอบว่าบอทส่งผ่านสำหรับมนุษย์หรือไม่ก็จะมองหาคุณสมบัติที่แนะนำความรู้สึก การทดสอบจะถามคำถามเพื่อตรวจสอบว่าบอทสามารถตั้งครรภ์ตัวเองภายนอกร่างกายหรือสามารถเข้าใจแนวคิดเช่นชีวิตหลังความตาย

มีข้อ จำกัด ในการทดสอบแม้ว่า เพราะมันขึ้นอยู่กับภาษาธรรมชาติ, AI ที่ไม่สามารถพูดได้ แต่ก็ยังอาจมีสติอยู่จะไม่สามารถเข้าร่วมได้ AI ที่ซับซ้อนอาจเลียนแบบมนุษย์ได้ดีพอที่จะทำให้เกิดการผิดพลาดในเชิงบวก ในกรณีนี้นักวิจัยจะต้องตัดถอน AI ทั้งหมดจากอินเทอร์เน็ตเพื่อให้แน่ใจว่าได้รับความรู้ของตัวเองก่อนการทดสอบ

พื้นฐานสำหรับ AI

Leave a Reply

Your email address will not be published. Required fields are marked *

%d bloggers like this: