มีดโกนออกคัม
มีดโกนออกคัม[1] (อังกฤษ: Ockham's Razor, Ockam’s razor หรือ Occam's Razor) ถูกเสนอโดยวิลเลียมแห่งออกคัม เป็นมีดโกนหนึ่งในปรัชญาวิทยาศาสตร์ในการเลือกทฤษฎีที่เหมาะสมและตรงกับข้อมูลที่ได้จากการสังเกตหรือการทดลอง
มีดโกนของออกคัมนี้ถูกนำไปตีความในหลายรูปแบบ โดยนักปรัชญาและนักวิทยาศาสตร์หลายท่าน อย่างไรก็ตาม อาจกล่าวถึงมีดโกนของออกคัมในรูปแบบที่ง่ายที่สุดได้ว่า "เราไม่ควรสร้างข้อสมมุติฐานเพิ่มเติมโดยไม่จำเป็น" หรือ "ทฤษฎีไม่ควรซับซ้อนเกินความจำเป็น" นั่นคือในกรณีที่ทฤษฎี หรือคำอธิบายปรากฏการณ์ต่าง ๆ มากกว่าหนึ่งรูปแบบ สามารถอธิบาย และทำนาย สิ่งที่ได้จากการสังเกตทดลอง ได้เท่าเทียมกัน หรือไม่ต่างกันมาก เราควรจะเลือกทฤษฎีที่ง่ายที่สุด หรือซับซ้อนน้อยที่สุดนั่นเอง
นักวิทยาศาสตร์ชื่อดังหลายท่านเห็นด้วยกับมีดโกนของออกคัมเช่นอัลเบิร์ต ไอน์สไตน์ หรือกาลิเลโอ กาลิเลอี ที่มองธรรมชาติเป็นสิ่งที่สวยงามดั่งศิลปะ
ตัวอย่างการนำไปใช้
[แก้]ตัวอย่างที่ดีที่สุด ในการใช้มีดโกนของออกคัมคือ การที่นักวิทยาศาสตร์ชั้นนำในยุคฟื้นฟูศิลปะวิทยาการเชื่อว่าทฤษฎีของโคเปอร์นิคัสนั้นน่าเชื่อถือมากกว่าทฤษฎีโลกเป็นศูนย์กลางของอริสโตเติลและทอเลมี[2]
ในงานวิจัยด้านการเรียนรู้ของเครื่องในปัจจุบัน ได้นำใบมีดของออกคัมมาใช้อย่างกว้างขวาง[3][4][5] แต่มักจะเข้าใจผิดว่าทฤษฎีที่มีคำอธิบายสั้น คือทฤษฎีที่เรียบง่ายกว่า
อนึ่ง มีดโกนของออกคัมนี้ สามารถคำนวณออกมาในเชิงตัวเลข (หรือในเชิงปริมาณ ซึ่งสามารถสื่อสารกันได้อย่างเที่ยงตรงมากกว่าเชิงคุณภาพ) ได้ด้วยการใช้ทฤษฎีความน่าจะเป็นแบบเบย์ ในการอนุมาน[5][6] โดยมีหลักการว่าแบบจำลองที่ซับซ้อนมาก จะมีตัวแปรจำนวนมาก เพื่อให้ปรับค่าได้ยืดหยุ่นมาก ดังนั้นความน่าจะเป็นที่ตัวแปรจำนวนมากนั้น จะปรากฏเป็นค่าที่เข้ากับข้อมูลของเราได้อย่างลงตัวนั้นจึงน้อยกว่าแบบจำลองที่มีตัวแปรน้อย
ความเข้าใจผิดที่พบบ่อย
[แก้]- "แบบจำลองที่ง่าย จะให้ความถูกต้องเหมาะสมกับข้อมูล มากกว่าแบบจำลองที่ซับซ้อน" ประโยคนี้ไม่เป็นจริง โดยทั่วไปแบบจำลองที่ซับซ้อน (มีพารามีเตอร์มากกว่า) จะให้ความถูกต้องกับข้อมูลไม่ด้อยกว่าแบบจำลองที่เรียบง่าย มีดโกนของออกคัม แนะนำให้เลือกแบบจำลองที่ง่าย ในกรณีที่แบบจำลองที่ซับซ้อน ให้ความถูกต้องได้ไม่ดีกว่าอย่างเห็นได้ชัดเท่านั้น[7]
- "แบบจำลองที่มีคำอธิบายสั้นกว่า คือแบบจำลองที่ซับซ้อนน้อยกว่า" ประโยคนี้ไม่เป็นจริงเสมอไป เนื่องจากความสั้นยาวของคำอธิบายของแบบจำลอง ขึ้นอยู่กับการเข้ารหัส หรือภาษาที่ใช้อธิบายโดยตรง ดังเช่นในทางคณิตศาสตร์ ถ้าเราจำกัดให้ภาษาของสมการของเรา มีเพียงสมการพหุนามแล้ว เราจำเป็นต้องใช้พจน์ของพหุนามเป็นจำนวนอนันต์ เพื่ออธิบายฟังก์ชันเอ็กซ์โพเนนเชียล ในขณะที่ถ้าภาษาของเรามีค่าคงที่ เราก็จะสามารถอธิบายฟังก์ชันเอ็กซ์โพเนนเชียลได้ ด้วยตัวอักษรไม่กี่ตัว อย่างไรก็ตาม แม้ความยาวของทั้งสองสมการจะไม่เท่ากัน แต่สมการทั้งสองก็อธิบายแบบจำลองเดียวกัน ความยาวของคำอธิบาย จึงไม่สามารถบอกค่าความซับซ้อนของแบบจำลองได้โดยตรง
อนึ่งในการวัดความเรียบง่ายของ "แบบจำลอง" จาก "คำอธิบายแบบจำลอง" โดยตรง เราจำเป็นต้องใช้การเข้ารหัสแบบครอบจักรวาล (universal encoding) เพื่ออธิบายแบบจำลองนั้น งานวิจัยในด้านการวัดความซับซ้อนของแบบจำลองแบบสัมบูรณ์นี้ คืองานวิจัยเรื่องความซับซ้อนแบบโคโมลโกรอฟ ซึ่งถูกเสนอโดยนักคณิตศาสตร์ชื่อดังชาวรัสเซีย แอนเดร โคลโมโกรอฟ ในราว ค.ศ. 1960
อ้างอิง
[แก้]- ↑ "ศัพท์บัญญัติ ๔๐ สาขาวิชา สำนักงานราชบัณฑิตยสภา".
{{cite web}}
: CS1 maint: url-status (ลิงก์) - ↑ Morris, S. Brent (2014). "Mathematician; National Security Agency". 101 Careers in Mathematics: 182–183. doi:10.5948/9781614441168.093.
{{cite journal}}
: line feed character ใน|title=
ที่ตำแหน่ง 33 (help) - ↑ Duda, Richard O.; Hart, Peter E.; Stork, David G. (2001). Pattern classification. A Wiley-Interscience publication (Second edition ed.). New York Chichester Weinheim Brisbane Singapore Toronto: John Wiley & Sons, Inc. ISBN 978-0-471-05669-0.
{{cite book}}
:|edition=
has extra text (help) - ↑ Mitchell, Tom (1997), "Machine learning meets natural language (Abstract)", Lecture Notes in Computer Science, Springer Berlin Heidelberg, pp. 391–391, ISBN 978-3-540-63586-4, สืบค้นเมื่อ 2024-08-14
- ↑ 5.0 5.1 MacKay, David J. C. (2019). Information theory, inference, and learning algorithms (22nd printing ed.). Cambridge: Cambridge University Press. ISBN 978-0-521-64298-9.
- ↑ Jaynes, E. T. (2003-04-10). "Probability Theory". doi:10.1017/cbo9780511790423.
{{cite journal}}
: Cite journal ต้องการ|journal=
(help) - ↑ Domingos, Pedro (1999). Data Mining and Knowledge Discovery. 3 (4): 409–425. doi:10.1023/a:1009868929893. ISSN 1384-5810 http://dx.doi.org/10.1023/a:1009868929893.
{{cite journal}}
:|title=
ไม่มีหรือว่างเปล่า (help)
ดูเพิ่มเติม
[แก้]แหล่งข้อมูลอื่น
[แก้]- มีดโกนของออคคัม เก็บถาวร 2006-10-25 ที่ เวย์แบ็กแมชชีน โดย สมเกียรติ ตั้งกิจวานิชย์
- โปรแกรมจำลองการเคลื่อนไหวของโลกเทียบกับดาวเคราะห์ดวงอื่นๆ ในแบบจำลองแบบดวงอาทิตย์เป็นศูนย์กลางและโลกเป็นศูนย์กลาง เก็บถาวร 2005-04-12 ที่ เวย์แบ็กแมชชีน
- http://www.hyle.org/journal/issues/3/hoffman.htm
- What is Occam's Razor? เก็บถาวร 2008-12-03 ที่ เวย์แบ็กแมชชีน
- Skeptic's Dictionary: Occam's Razor
- Ockham's Razor เก็บถาวร 2010-04-19 ที่ เวย์แบ็กแมชชีน, an essay at The Galilean Library on the historical and philosophical implications by Paul Newall.
- NIPS 2001 Workshop "Foundations of Occam's Razor and parsimony in learning" เก็บถาวร 2011-07-15 ที่ เวย์แบ็กแมชชีน
- "We Must Choose The Simplest Physical Theory: Levin-Li-Vitányi Theorem And Its Potential Physical Applications" เก็บถาวร 2003-12-10 ที่ เวย์แบ็กแมชชีน
- "Sharpening Ockham's razor on a Bayesian strop" (pdf), by William H. Jefferys and James O. Berger; gives an objective quantification of Occam's razor within Bayesian statistics (with scientific applications)
- Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay, includes an introductory chapter on the automatic Occam's razor that is embodied by Bayesian model comparison.
- "Message Length as an Effective Ockham's Razor in Decision Tree Induction" เก็บถาวร 2005-01-18 ที่ เวย์แบ็กแมชชีน, by S. Needham and D. Dowe, Proc. 8th International Workshop on AI and Statistics (2001), pp253-260. (Shows how Ockham's razor works fine when interpreted as MML.)
- Lloyd's MML pages describe how Minimum Message Length induction extends Ockham's razor for differing hypotheses. (MML is a scale-invariant Bayesian model selection method.)
- (An extensive bibliography เก็บถาวร 2005-12-14 ที่ เวย์แบ็กแมชชีน of publications related to Occam's Razor)
- Occam's sword เก็บถาวร 2005-11-20 ที่ เวย์แบ็กแมชชีน at wikinfo
- Simplicity at Stanford Encyclopedia of Philosophy