กฎของหุ่นยนต์

จากวิกิพีเดีย สารานุกรมเสรี

กฎของ หุ่นยนต์ เป็นชุดของกฎระเบียบ หรือหลักการ ซึ่งมีวัตถุประสงค์เพื่อเป็นบรรทัดฐานพฤติกรรมของ หุ่นยนต์ ที่ออกแบบมาเพื่อให้มีระดับ ความเป็นอิสระ ในปัจจุบัน เรายังไม่มีหุ่นยนต์ที่มีความซับซ้อนระดับนี้ แต่พวกมันได้รับการคาดหมายอย่างกว้างขวางใน นิยายวิทยาศาสตร์ ภาพยนตร์ และเป็นหัวข้อของ การวิจัยและพัฒนา ในสาขา หุ่นยนต์ และ ปัญญาประดิษฐ์

ชุดของกฎหุ่นยนต์ที่รู้จักกันดีที่สุดคือชุด ที่เขียน โดย ไอแซค อสิมอฟ ในทศวรรษที่ 1940 แต่นักกฎหมายชุดอื่น ๆ ได้ถูกเสนอโดยนักวิจัยในทศวรรษตั้งแต่นั้นมา

ไอแซค อสิมอฟ กับเรื่อง "กฎ 3 ข้อของหุ่นยนต์"[แก้]

ชุดของกฎที่รู้จักกันดีที่สุดคือ "กฎ 3 ข้อของหุ่นยนต์" ของ ไอแซค อซิมอฟ สิ่งเหล่านี้ถูกนำมาใช้ในเรื่องสั้นของเขาในปี 2485 เรื่อง "Runaround" แม้ว่าพวกเขาจะคาดเดาได้ในสองสามเรื่องก่อนหน้านี้ กฎหมายสามข้อคือ:

  1. หุ่นยนต์มิอาจกระทำการอันตรายต่อผู้ที่เป็นมนุษย์ หรือนิ่งเฉยปล่อยให้ผู้ที่เป็นมนุษย์ตกอยู่ในอันตรายได้
  2. หุ่นยนต์ต้องเชื่อฟังคำสั่งที่ได้รับจากผู้ที่เป็นมนุษย์ เว้นแต่คำสั่งนั้นๆ ขัดแย้งกับกฎข้อแรก
  3. หุ่นยนต์ต้องปกป้องสถานะความมีตัวตนของตนไว้ ตราบเท่าที่การกระทำนั้นมิได้ขัดแย้งต่อกฎข้อแรกหรือกฎข้อที่สอง[1]

ในตอนท้ายของหนังสือ สถาบันสถาปนาและโลก กฏข้อที่ศูนย์ก็ได้แต่งตั้งขึ้นมา

0. หุ่นยนต์มิอาจกระทำการอันตรายต่อมนุษยชาติ หรือนิ่งเฉยปล่อยให้มนุษยชาติตกอยู่ในอันตรายได้

หลักการหุ่นยนต์ของ EPSRC / AHRC[แก้]

ในปี 2011 สภาวิจัยวิศวกรรมและวิทยาศาสตร์กายภาพ (EPSRC) และ สภาวิจัยศิลปะและมนุษยศาสตร์ (AHRC) แห่ง บริเตนใหญ่ ได้ร่วมกันตีพิมพ์ชุดของหลักการ "จริยธรรมสำหรับนักออกแบบผู้สร้างและผู้ใช้หุ่นยนต์" ใน โลกแห่งความจริง และ "ข้อความระดับสูง" ตั้งใจจะถ่ายทอดตามการประชุมเชิงปฏิบัติการวิจัยเดือนกันยายน 2010:[2][3][4]

  1. หุ่นยนต์ไม่ควรถูกออกแบบมาเพื่อฆ่าหรือทำร้ายมนุษย์
  2. มนุษย์จะต้องเป็นตัวแทนในการรับผิดชอบ ไม่ใช่หุ่นยนต์ และหุ่นยนต์เป็นเครื่องมือที่ออกแบบมาเพื่อให้บรรลุเป้าหมายของมนุษย์
  3. หุ่นยนต์ควรได้รับการออกแบบในรูปแบบที่รับประกันความปลอดภัย
  4. หุ่นยนต์เป็นสิ่งประดิษฐ์ พวกเขาไม่ควรออกแบบมาเพื่อใช้ประโยชน์จากผู้ใช้ที่มีช่องโหว่โดยการตอบสนองต่ออารมณ์หรือการพึ่งพา มันควรจะมีทางที่เป็นไปได้ในการแยกหุ่นยนต์จากมนุษย์
  5. เป็นไปได้เสมอที่จะพบว่าใครเป็นผู้รับผิดชอบหุ่นยนต์ตามกฎหมาย

ข้อความที่ตั้งใจจะสื่อคือ:

  1. เราเชื่อว่าหุ่นยนต์มีศักยภาพที่จะสร้างผลกระทบเชิงบวกอย่างใหญ่หลวงต่อสังคม เราต้องการสนับสนุนการวิจัยหุ่นยนต์ที่มีมนุษย์ในการรับผิดชอบ
  2. การปฏิบัติที่ไม่ดีทำร้ายเราทุกคน
  3. การแก้ไขข้อกังวลสาธารณะที่ชัดเจน จะช่วยให้เราทุกคนก้าวหน้า
  4. เป็นสิ่งสำคัญที่จะต้องแสดงให้เห็นว่า เราในฐานะนักพัฒนาหุ่นยนต์ มุ่งมั่นที่จะปฏิบัติตามมาตรฐานที่ดีที่สุด เท่าที่จะเป็นไปได้
  5. เพื่อทำความเข้าใจบริบทและผลที่ตามมาของการวิจัยของเรา เราควรทำงานร่วมกับผู้เชี่ยวชาญจากสาขาวิชาอื่น ๆ ประกอบไปด้วย: สังคมศาสตร์ กฎหมาย ปรัชญา และศิลปะ
  6. เราควรพิจารณาจริยธรรมของความโปร่งใส: มีข้อจำกัดอะไรบ้างที่ควรเปิดเผย?
  7. เมื่อเราเห็นสิ่งที่ผิดพลาด เรามุ่งมั่นที่จะให้เวลาในการติดต่อกับนักข่าว

หลักการของ EPSRC ได้รับการยอมรับอย่างกว้างขวางว่าเป็นจุดเริ่มต้นที่ดี ในปี 2559 โทนี่ เพรสคอตต์ จัดประชุมเชิงปฏิบัติการเพื่อทบทวนหลักการเหล่านี้ เช่น เพื่อแยกความแตกต่างทางจริยธรรมจากหลักการทางกฎหมาย[5]

การพัฒนาทางฝ่ายตุลาการ และ ศาลยุติธรรม[แก้]

การประมวลคำศัพท์ที่ครอบคลุมสำหรับการประเมินทางกฎหมาย ของการพัฒนาเทคโนโลยีในอุตสาหกรรมหุ่นยนต์ได้เริ่มขึ้นแล้ว และส่วนใหญ่อยู่ในแถบประเทศแถบเอเชีย [6] ความคืบหน้านี้แสดงให้เห็นถึงการตีความกฎหมายร่วมสมัย (และจริยธรรม) ในสาขาหุ่นยนต์ การตีความที่ถือว่าเป็นการพิจารณากลุ่มทางกฎหมายแบบดั้งเดิม สิ่งเหล่านี้รวมถึงประเด็นความรับผิดทางกฎหมาย เป็นหลักในกฎหมายแพ่งและอาญา

กฎของ Satya Nadella[แก้]

ในเดือนมิถุนายน 2559 Satya Nadella ซีอีโอของ ไมโครซอฟท์ ในเวลานั้นได้สัมภาษณ์นิตยสาร Slate และร่างคร่าว ๆ เกี่ยวกับ ห้ากฎสำหรับผู้ที่มี และครอบครองปัญญาประดิษฐ์ (A.I.):[7][8]

  1. "A.I. ต้องได้รับการออกแบบมาเพื่อช่วยเหลือมนุษยชาติ" หมายถึงความเคารพต่อความเป็นอิสระของมนุษย์
  2. "A.I. ต้องมีความโปร่งใส" หมายถึงมนุษย์ควรรู้และสามารถเข้าใจวิธีการทำงานของมัน
  3. "A.I. จะต้องมีประสิทธิภาพสูงสุด โดยไม่ทำลายศักดิ์ศรีของผู้คน"
  4. "A.I. ต้องได้รับการออกแบบเพื่อความเป็นส่วนตัวที่ชาญฉลาด" ซึ่งหมายความว่าจะได้รับความไว้วางใจจากการปกป้องข้อมูลของพวกเขา
  5. "A.I. จะต้องมีความรับผิดชอบอัลกอริทึม เพื่อให้มนุษย์สามารถยกเลิกการกระทำ ที่เป็นอันตรายโดยที่ไม่ได้ตั้งใจ"
  6. "A.I. จะต้องป้องกันความลำเอียง" เพื่อที่พวกเขาจะต้องไม่เลือกปฏิบัติต่อผู้คน

กฎแห่งวิทยาการหุ่นยนต์ ของ มาร์ค ทิลเดน[แก้]

มาร์ค ทิลเดน เป็นนักฟิสิกส์หุ่นยนต์ที่เป็นผู้บุกเบิกในการพัฒนาหุ่นยนต์อย่างง่าย[9] หลักการ / กฎสามข้อสำหรับหุ่นยนต์คือ:[9][10][11]

  1. หุ่นยนต์ต้องปกป้องการดำรงอยู่ของมันอย่างเต็มกำลัง
  2. หุ่นยนต์ต้องเสาะแสวงหาและปกปักษ์รักษาแหล่งพลังงานของมัน
  3. หุ่นยนต์เสาะแสวงหาแหล่งพลังงานที่ดีกว่าเดิมอยู่เสมอ

ความโดดเด่นของกฎดังกล่าวอาจมองว่าเป็นกฎของสัตว์ป่า โดยสาระสำคัญที่ทิวเดนพยายามจะสื่อคือ "การสร้างเผ่าพันธุ์ใหม่จากซิลิกอน ซึ่ง ไม่ใช่พืช ไม่ใช่สัตว์ แต่เป็นอย่างอื่นนอกเหนือจากนั้น"[12]

ดูเพิ่ม[แก้]

อ้างอิง[แก้]

  1. Asimov, Isaac (1950). I, Robot.
  2. Stewart, Jon (2011-10-03). "Ready for the robot revolution?". BBC News. สืบค้นเมื่อ 2011-10-03.
  3. "Principles of robotics: Regulating Robots in the Real World". Engineering and Physical Sciences Research Council. สืบค้นเมื่อ 2011-10-03.
  4. Winfield, Alan. "Five roboethical principles – for humans". New Scientist. สืบค้นเมื่อ 2011-10-03.
  5. Müller, Vincent C. (2017). "Legal vs. ethical obligations – a comment on the EPSRC's principles for robotics". Connection Science. doi:10.1080/09540091.2016.1276516.
  6. bcc.co.uk: อายุหุ่นยนต์ทำให้เกิดภาวะที่กลืนไม่เข้าคายไม่ออก ลิงค์
  7. Nadella, Satya (2016-06-28). "The Partnership of the Future". Slate. ISSN 1091-2339. สืบค้นเมื่อ 2016-06-30.
  8. Vincent, James (2016-06-29). "Satya Nadella's rules for AI are more boring (and relevant) than Asimov's Three Laws". The Verge. Vox Media. สืบค้นเมื่อ 2016-06-30.
  9. 9.0 9.1 Hapgood, Fred (September 1994). "Chaotic Robotics". Wired. No. 2.09.
  10. Ashley Dunn. "Machine Intelligence, Part II: From Bumper Cars to Electronic Minds" The New York Times 5 June 1996. Retrieved 26 July 2009.
  11. makezine.com: คู่มือสำหรับผู้เริ่มต้นสู่ BEAM (บทความส่วนใหญ่เป็นเนื้อหาแบบสมัครสมาชิกเท่านั้น)
  12. Hapgood, Fred (September 1994). "Chaotic Robotics (continued)". Wired. No. 2.09.