โครงข่ายประสาทแบบเวียนซ้ำ
ส่วนหนึ่งของเนื้อหา |
การเรียนรู้ของเครื่อง และ การทำเหมืองข้อมูล |
---|
โครงข่ายประสาทแบบเวียนซ้ำ (recurrent neural network; RNN) เป็นรูปแบบหนึ่งของโครงข่ายประสาทเทียม ที่ภายในโครงสร้างมีการเวียนซ้ำอยู่ภายใน[1] มักใช้สำหรับการจัดการกับข้อมูลอนุกรมเวลา[2]
ภาพรวม
[แก้]โครงข่ายประสาทเทียมแบบดั้งเดิมเป็นโครงข่ายที่ค่าที่ป้อนเข้าจะเคลื่อนไปยังหน่วยที่อยู่ถัดไปโดยไม่มีการย้อนกลับมายังหน่วยเดิม เรียกว่าเป็นโครงข่ายประสาทแบบป้อนไปข้างหน้า ในทางกลับกัน โครงข่ายประสาทแบบวนซ้ำนั้นจะมีวงจรอยู่ภายใน กล่าวคือข้อมูลที่ออกจากหน่วยหนึ่งถูกป้อนเข้าให้หน่วยเดิมอีกครั้ง
โครงข่ายประสาทแบบวนซ้ำสามารถใช้สถานะภายใน (หน่วยความจำ) เพื่อประมวลผลลำดับค่าป้อนเข้าใด ๆ ซึ่งทำให้สามารถแสดงพฤติกรรมที่เปลี่ยนไปตามเวลาสำหรับอนุกรมเวลาได้[3] ซึ่งทำให้สามารถนำไปใช้กับปัญหาต่าง ๆ เช่น การรู้จำลายมือเขียน ซึ่งเชื่อมต่อกันอย่างไม่มีการแบ่งแยก[4] และการรู้จำคำพูด[5][6]
อ้างอิง
[แก้]- ↑ "If a network has one or more cycles, that is, if it is possible to follow a path from a unit back to itself, then the network is referred to as recurrent." Jordan, M.I. (1986). Serial order: A parallel distributed processing approach. (Tech. Rep. No. 8604). San Diego: University of California, Institute for Cognitive Science.
- ↑ Tealab, Ahmed (2018-12-01). "Time series forecasting using artificial neural networks methodologies: A systematic review". Future Computing and Informatics Journal. 3 (2): 334–340. doi:10.1016/j.fcij.2018.10.003. ISSN 2314-7288.
- ↑ Jinyu Li Li Deng Reinhold Haeb-Umbach Yifan Gong (2015). Robust Automatic Speech Recognition. Academic Press. ISBN 978-0128023983.
- ↑ Graves, A.; Liwicki, M.; Fernandez, S.; Bertolami, R.; Bunke, H.; Schmidhuber, J. (2009). "A Novel Connectionist System for Improved Unconstrained Handwriting Recognition" (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. 31 (5).
- ↑ Sak, Hasim; Senior, Andrew; Beaufays, Francoise (2014). "Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling" (PDF). สืบค้นเมื่อ 2019-04-05.
- ↑ Li, Xiangang; Wu, Xihong (2014-10-15). "Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition". arXiv:1410.4281 [cs.CL].