เพอร์เซปตรอน

จากวิกิพีเดีย สารานุกรมเสรี

เพอร์เซปตรอน (อังกฤษ: perceptron) เป็นข่ายงานประสาทเทียมประเภทหนึ่ง ที่ได้รับการพัฒนาขึ้นใน ค.ศ. 1957 โดย แฟรงค์ โรเซนบลัทท์ ที่ Cornell Aeronautical Laboratory

เพอร์เซปตรอนประกอบด้วยเซลล์ประสาทเทียม หรือนิวรอน อย่างน้อยหนึ่งชั้น, อินพุตจะถูกส่งตรงไปยังเอาต์พุต โดยผ่านชุดค่าน้ำหนัก, ด้วยเหตุนี้ จึงสามารถพิจารณาว่าเป็นข่ายงานป้อนไปหน้า (feedforward network) แบบพื้นฐานที่สุด. นิวรอนแต่ละตัวจะคำนวณผลรวมถ่วงน้ำหนักจากอินพุต, ซึ่งก็คือผลรวมของผลคูณระหว่างค่าอินพุตกับค่าน้ำหนักของแต่ละตัว, ถ้าค่าที่ได้จากการคำนวณนี้ มากกว่าขีดแบ่ง (threshold) นิวรอนก็จะให้ค่าเอาต์พุตเท่ากับ 1, ถ้าน้อยกว่าก็จะให้ค่า -1. เพื่อให้ง่ายจึงมักจะกำหนดให้ขีดแบ่ง เป็นค่าน้ำหนักตัวหนึ่งของอินพุตที่เป็นค่าคงที่, โดยฟังก์ชันค่าขีดแบ่งจะมีศูนย์กลางอยู่ที่ 0.

นิวรอนที่ใช้ฟังก์ชันกระตุ้น (activation function) แบบนี้ อาจจะเรียกว่า นิวรอนแบบแมคคัลลอค-พิตส์ (McCulloch-Pitts neurons) หรือ นิวรอนขีดแบ่ง (threshold neurons) ในเอกสารทางวิชาการส่วนใหญ่ มักจะใช้คำว่า เพอร์เซปทรอน เมื่อพูดถึงข่ายงานที่ประกอบด้วยนิวรอนแบบนี้เพียงหน่วยเดียว

ขั้นตอนวิธีการเรียนรู้อย่างง่าย ที่สามารถนำมาใช้กับเพอร์เซปตรอน จะเรียกว่า กฎเดลต้า (delta-rule) โดยจะคำนวณค่าความผิดพลาดระหว่างเอาต์พุตที่ได้ กับเอาต์พุตของตัวอย่าง แล้วนำค่าที่ได้ไปปรับค่าน้ำหนัก โดยนำไปใช้ในรูปแบบของการเคลื่อนลงตามความชัน (gradient descent)

แม้ว่าในช่วงแรกเพอร์เซปตรอนจะทำงานได้ตามที่ต้องการ แต่ต่อมาก็สามารถพิสูจน์ได้ว่าไม่สามารถสอนให้เพอร์เซปตรอนอย่างง่าย รู้จำรูปแบบต่างๆ หลายแบบ ทำให้งานวิจัยทางด้านนี้หยุดนิ่งไปหลายปี จนกระทั่งมีการค้นพบว่าข่ายงานประสาทแบบสามชั้นหรือมากกว่า ให้ผลที่ดีกว่าเพอร์เซปตรอนอย่างมาก

เพอร์เซปตรอนอย่างง่าย ที่ประกอบด้วยหนึ่งหรือสองชั้นนั้น สามารถเรียนรู้เฉพาะรูปแบบที่สามารถแบ่งแยกเชิงเส้น (linearly separable) ซึ่งใน ค.ศ. 1969 บทความที่มีชื่อเสียง ที่มีชื่อว่า Perceptrons โดย มาร์วิน มินสกี (Marvin Minsky) และ เซมัวร์ พาเพอรท์ (Seymour Papert) แสดงให้เห็นว่า ไม่สามารถใช้ข่ายงานแบบนี้เรียนรู้ฟังก์ชัน XOR และพวกเขาก็ได้คาดเดา (อย่างผิดพลาด) ว่าจะได้ผลเหมือนกัน แม้ว่าจะใช้ข่ายงานที่มีสามชั้นหรือมากกว่า

การค้นพบในทศวรรษ 1980 ว่าข่ายงานประสาทหลายชั้น (multi-layer neural network) ไม่กระทบกับปัญหานี้ (ในความเป็นจริง) ทำให้งานวิจัยด้านนี้ฟื้นกลับมาอีกครั้ง

อ้างอิง[แก้]

  • Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Cornell Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. 386-408.
  • Minsky M L and Papert S A 1969 Perceptrons (Cambridge, MA: MIT Press)

แหล่งข้อมูลอื่น[แก้]