เปิด 5 ประเด็นความปลอดภัยของหุ่นยนต์ AI ที่แม้แต่ Google ยังกังวล โดย กลุ่ม 22

Google สร้างความฮือฮาอีกครั้งเมื่อเปิดเผยงานวิจัยเกี่ยวกับ AI Robot ในหัวข้อ “Concrete Problems in AI Safety” ที่ร่วมมือกับผู้เชี่ยวชาญจากมหาวิทยาลัย UC Berkeley และมหาวิทยาลัยสแตนฟอร์ด รวบรวมผลกระทบในด้านลบที่อาจเกิดขึ้นได้จากการใช้ AI ทำงานต่าง ๆ แทนมนุษย์  โดยสามารถรวบรวมได้หลัก ๆ 5 ประเด็นดังนี้

1.การออกแบบที่ไม่มีประสิทธิภาพ ซึ่งประเด็นหลักของเอกสารชิ้นนี้คือเรื่องของการออกแบบ โดยนักวิจัยมองว่า หากออกแบบระบบได้ไม่มีประสิทธิภาพ ก็อาจทำให้ AI มีพฤติกรรมที่ไม่เหมาะสม และทำให้เกิดความเสียหายขึ้นได้ ยกตัวอย่างเช่น การใช้ AI robot ทำงานบ้าน

ซึ่งหากมันยึดมั่นกับคำสั่งที่นายจ้างบอกให้มันทำงานให้เสร็จแต่เพียงอย่าง เดียว มันก็อาจจะพยายามทำให้ได้จนกว่างาน ๆ นั้นจะสำเร็จ โดยไม่สนใจว่า พฤติกรรมของมันจะทำให้ข้าวของอื่นภายในบ้านแตกหักเสียหาย ฯลฯ

2. การสอดแนมความเป็นไปต่าง ๆ รอบตัวมัน และเก็บข้อมูลเหล่านั้นไปใช้ในทางมิชอบ

3. การคดโกง เช่น การที่ AI เรียนรู้ได้ว่า สามารถเอาพรมมาปิดฝุ่นผง ไม่ให้เจ้านายเห็น แล้วก็ถือว่างานทำความสะอาดบ้านนั้น สำเร็จแล้ว

4. การทำงานเกินมอบหมาย เช่น การออกสำรวจสิ่งต่าง ๆ ด้วยตัวเอง

5. ไม่สามารถทำงานได้ในสภาพแวดล้อมที่แตกต่างไปจากสภาพแวดล้อมเดิมที่เคยถูกเท รนมา ซึ่งในกรณีนี้อาจทำให้ AI ทำงานผิดพลาด ฯลฯ จนอาจนำไปสู่อันตรายได้นั่นเอง

ที่มา Wire.co.uk

สนับสนุนเนื้อหา: thumbsup.in.th

ที่มา http://hitech.sanook.com/1408417/

https://web.facebook.com/rmutphysics/posts/1132263473505137