ผู้ใช้:HirokiSpace/แบบจำลองตามกฎและนิรนัย

จากวิกิพีเดีย สารานุกรมเสรี

แบบจำลองการอธิบายตามกฎและนิรนัย (deductive-nomological model (แบบจำลอง DN)) คือรูปแบบการอธิบายทางวิทยาศาสตร์รูปแบบหนึ่ง มีชื่อเรียกอื่น ๆ เช่น แบบจำลองของแฮมเพิล แบบจำลองเฮมเพลและโอเพนไฮม์ มุ่งเน้นการอธิบายว่าเหตุใดปรากฏการณ์จึงเป็นเช่นนั้น แบบจำลอง DN เสนอว่าการอธิบายทางคำวิทยาศาสตร์มีรูปแบบเป็นโครงสร้างการอ้างเหตุผลแบบนิรนัย เมื่อความจริงของข้อตั้งหลายข้อนำมาซึ่งความจริงของข้อสรุป ทั้งนี้ขึ้นอยู่กับความแม่นยำของการทำนายหรือการเข้าใจปรากฏการณ์ขึ้นเพื่อนำมาเป็นสู่การอธิบายปรากฏการณ์


เนื่องจากมุนษย์มีความสามารถที่จำกัดในการการกำหนด ค้นพบ และรู้จริงเกี่ยวกับความเป็นสาเหตุ สิ่งนี้จึงถูกละไว้ในสูตรแรกเริ่มของแบบจำลอง DN โดยเชื่อกันว่าความเป็นสาเหตุเป็นผลเกิดขึ้นโดยบังเอิญจากการเลือกข้อตั้งที่เป็นไปได้จริง ซึ่งข้อตั้งได้มาจากการสังเกตปรากฏการณ์ภายใต้เงื่อนไขและรวมทั้งกฎทางวิทยาศาสตร์ อย่างไรก็ตามการอธิบายตามแบบจำลอง DN ในช่วงแรกนั้นอนุญาตให้เพิ่มปัจจัยที่ไม่มีสาเหตุเชื่อมโยงกันได้ นอกจากนี้ข้อสรุปที่ได้จากการสังเกตและกฎทางวิทยาศาสตร์อย่างเดียวบางครั้งก็ให้ข้อสรุปที่ดูประหลาด

ช่วงทศวรรษ 1960 เมื่อแนวคิดปฏิฐานนิยมเชิงตรรกะเริ่มเสื่อความนิยม แบบจำลอง DN ก็ถูกวิจารณ์อย่างกว้างขวางว่าเป็นแบบจำลองทางวิทยาศาสตร์ที่มีข้อบกพร่องหรือไม่สมบูรณ์เป็นอย่างมาก อย่างไรก็ตามแบบจำลอง DN ยังคงเป็นรูปแบบการอธิบายทางวิทยาศาสตร์ในอุดมคติและเป็นการอธิบายที่ค่อนข้างแม่นยำเมื่อนำไปใช้กับ ฟิสิกส์สมัยใหม่ ในช่วงต้นทศวรรษ 1980 แบบจำลอง DN ได้รับการแก้ไขให้เน้น ความจำเพาะสูงสุด (maximal specificity) เพื่อสร้างความเชื่อมโยงระหว่างเงื่อนไขต่าง ๆ กับสัจพจน์ เมื่อพิจารณาร่วมกับ แบบจำลองเชิงสถิติและอุปนัยของเฮมเพล แบบจำลอง DN สร้างแบบจำลองกฎที่ครอบคลุมของการอธิบายทางวิทยาศาสตร์ซึ่งเรียกอีกอย่างว่าจากมุมมองของนักวิจารณ์ว่าเป็น ทฤษฎีกุารพินิจพิเคราะห์จับกลุ่ม (subsumption theory)

รูปแบบ[แก้]

คำว่า นิรนัย ทำให้แบบจำลอง DN ซึ่งมีความเป็นนิยัตินิยมแตกต่างจากแนวคิดเชิงความน่าจะเป็น (probabilism) ของการหาข้อสรุปแบบอุปนัย คำว่า nomological มาจากคำภาษากรีก νόμος หรือ nomos ซึ่งหมายถึง "กฎ" [1] แบบจำลอง DN ถือตามมุมมองของการอธิบายทางวิทยาศาสตร์ที่มี เงื่อนไขของความเพียงพอ (CA) คือ ความสามารถในการสรุป (CA1) ความเป็นกฎ (CA2) เนื้อหาเชิงประจักษ์ (CA3) และความจริง (CA4) [2]

ในแบบจำลอง DN กฎทางวิทยาศาสตร์ทำให้หลักเกณฑ์ทั่วไปกลายเป็นสัจพจน์ ให้ข้อเสนอตั้งต้น A นำไปสู่ผลสืบเนื่อง B โดยประพจน์ที่มีเงื่อนไข (ถ้า A แล้ว B) และมีข้อความที่สามารถทดสอบเชิงประจักษ์ได้ [3] กฎทางวิทยาศาสาตร์แตกต่างจากลักษณะประจำที่จริง ตัวอย่างเช่น จอร์จมักจะพกตั๋วเงินเพียง 1 ดอลลาร์ไว้ในกระเป๋าสตางค์ของเขาเสมอ เป็นลักษณะประจำที่จริงแต่ไม่ได้เป็นกฎทางวิทยาศาสตร์

โดยกฎทางวิทยาศาสตร์จะถูกสนับสนุนด้วยข้อขัดแย้งกับความจริงที่ตั้งขึ้น แล้วอ้างว่าข้อขัดแย้งนี้ไม่ตรงตามความเป็นจริง จากนั้นชี้ให้เห็นว่ากฎทางวิทยาศาสตร์ ต้อง เป็นจริง [4] ซึ่งเป็นไปตามโครงสร้างสัจพจน์ของทฤษฎีทางวิทยาศาสตร์ [5]

ปรากฏการณ์ที่จะอธิบายเรียกว่า explanandum อาจเป็นเหตุการณ์ กฎทางวิทยาศาสตร์หรือทฤษฎี ขณะที่ ข้อตั้งที่จะอธิบายเรียกว่า explanans ต้องเป็นจริงหรือได้รับการยืนยันอย่างสูง มีอย่างน้อยหนึ่งกฎทางวิทยาศาสตร์ที่เป็นสากล และสามารถนำไปสู่การอธิบายปรากฏการณ์ explanandum ได้[6] [7] หากสมมติให้ข้อตั้ง (explanans) เริ่มต้นมีเงื่อนไขเฉพาะเป็น C 1, C 2 . . C n รวมทั้งเพิ่มกฎวิทยาศาสตร์ทั่วไป L 1, L 2 . . L n จะได้ข้อข้อรุปออกมาเป็นปรากฏการณ์ E ซึ่งเป็นผลจากการอ้างเหตุผลแบบนิรนัย ดังนั้นจึงนำการอ้างเหตุผลแบบนี้มาเป็นการอธิบายทางวิทยาศาสตร์ได้

รากฐานความคิด[แก้]

ในหนังสือเรื่อง ฟิสิกส์ ของอริสโตเติลมีการอธิบายทางวิทยาศาสตร์คล้ายกับแบบจำลอง DN ซึ่งเป็นรูปแบบของคำอธิบายทางวิทยาศาสตร์ในอุดมคติ [7] กรอบแนวคิดของฟิสิกส์แบบอริสโตเติลและอภิปรัชญาแบบอริสโตเติล สะท้อนให้เห็นมุมมองของอริสโตเติลในฐานะนักชีววิทยาคนสำคัญผู้เชื่อว่าสิ่งมีชีวิตทุกสิ่งมีเป้าหมายสุดท้ายที่ปฏิเสธไม่ได้ อริสโตเติลเป็นต้นกำเนิความคิด ชีวิตนิยม และอันตวิทยาที่กล่าวถึงคุณธรรมในตัวเองของธรรมชาติ [8] อย่างไรก็ตาม หลังการเกิดขึ้นของความเชื่อที่ว่าพระอาทิตย์เป็นศูนย์กลางของโคเปอร์นิคัส เรอเน เดส์การ์ตส์ได้เสนอปรัชญาเชิงกลขึ้น จากนั้นนิวตันจึงเสนอการอธิบายที่มีลักษณะเป็นกฎอย่างเคร่งครัด โดยทั้งเดส์การ์ตส์และนิวตันได้หลักเลี่ยงแนวคิดอันติวิทยามาเป็นปรัชญาธรรมชาติ [9] ในปี 1740 เดวิด ฮูม [10] วางรากฐานส้อมของฮูม [11] เพื่อเน้นถึงปัญหาของการอุปนัย [12] ฮูมกล่าวว่ามนุษย์เพิกเฉยต่อสาเหตุที่จำเป็นหรือเพียงพอ [13] [14] ฮูมยังแสดงให้เห็นว่ามีช่องว่างระหว่างความเป็นจริงกับคุณค่า โดยสิ่งที่ เป็น อยู่ไม่ได้แสดงว่าสิ่งที่ ควร จะเป็น [15]

ราวปีค. ศ. 1780 อิมมานูเอล คานต์ ได้ตอบโต้แนวคิดประจักษ์นิยมอย่างสุดโต่งของฮูม และได้เน้นย้ำถึงการใช้แนวคิดแบบเหตุผลนิยม อย่างที่เดส์การ์ตส์หรือสปิโนซาใช้ โดยคานต์ได้พยายามหาทางออกที่เป็นกลางระหว่างประจักษ์นิยมและเหตุผลนิยม คานต์สรุปว่าจิตได้จัดเรียงประสบการณ์ในโลกมาสู่ สสาร อวกาศ และ เวลา คานท์อ้างว่าจิตรู้ความเป็นสาเหตุ ด้วยเหตุนี้ทฤษฎีการเคลื่อนที่ของนิวตันจึงความจริงในระดับสากล [16] แต่ความรู้ของสิ่งในตัวเองเป็นไปไม่ได้ [14] แม้ว่าจะทำไปเพื่อการปกป้องวิทยาศาสตร์ แต่คานท์ก็ได้แยกวิทยาศาสตร์ออกจากสัจจนิยมทางวิทยาศาสตร์ [17] [18] คานต์ทำให้วิทยาศาสตร์เป็นเพียงการสร้างแบบจำลองรูปแบบของ ปรากฏการณ์ และปกป้องอภิปรัชญาของตัวเอง โดยอ้างว่าว่าค่าคงที่ของจิตใจยึดมั่นใน ความจริงทางศีลธรรมสากล [19] และกลายมาเป็นแนวคิดอุดมคติแบบเยอรมัน

ต่อมา ออกุสต์ กองต์พบว่าแท้จริงแล้วปัญหาของการอุปนัยนั้นไม่เป็นประเด็น เนื่องจากการอุปนัยแบบแจงนับมีพื้นฐานมาจากการประจักษ์จากสิ่งที่มีอยู่ ในขณะที่ประเด็นทางวิทยาศาสตร์ไม่ใช่ความจริงเชิงอภิปรัชญา กองต์กล่าวว่าความรู้ของมนุษย์มีวิวัฒนาการจากเทววิทยาไปสู่อภิปรัชญาจากนั้นไปสู่วิทยาศาสตร์ซึ่งเป็นขั้นสูงสุด กองต์ปฏิเสธทั้งเทววิทยาและอภิปรัชญา เนื่องจากปรัชญาเป็นการถามคำถามที่ไม่สามารถตอบได้และคำตอบก็ไม่สามารถพิสูจน์ว่าจริงได้ ในช่วงทศวรรษที่ 1830 กองต์ได้เสนอแนวคิด ปฏิฐานนิยมซึ่งเป็นปรัชญาวิทยาศาสตร์ สมัยใหม่ยุคแรกรวมถึงปรัชญาทางการเมืองในเวลาเดียวกัน [20] ปฎิฐานนิยมปฏิเสธการคาดเดาเกี่ยวกับสิ่งที่ไม่สามารถสังเกตได้ ดังนั้นจึงปฏิเสธการค้นหา สาเหตุ [21]

ปฏิฐานนิยมทำนายการสังเกต ยืนยันการคาดการณ์และสร้างกฎทางวิทยาศาสตร์ที่นำไปใช้เพื่อประโยชน์ต่อสังคมมนุษย์ [22] ตั้งแต่ปลายศตวรรษที่ 19 ถึงต้นศตวรรษที่ 20 อิทธิพลของลัทธิปฏิฐานนิยมครอบคลุมไปทั่วโลก ในขณะที่ทฤษฎีวิวัฒนาการอย่างการคัดเลือกโดยธรรมชาติ นำไปสู่การปฏิวัติโคเปอร์นิคัสในวงการชีววิทยาและนำไปสู่ความเสื่อสลายของแนวคิดแบบ ชีวิตนิยม และอันตวิทยาของอริสโตเติล [8]

การเจริญเติบโต[แก้]

ในขณะที่แนวคิดปฏิฐานนิยมแบบกองต์กล่าวถึงวิทยาศาสตร์ในลักษณะเป็นการบรรยาย ปฏิฐานนิยมเชิงตรรกะ ซึ่งเกิดขึ้นในช่วงปี 1920 กล่าวถึงวิทยาศาสตร์ในลักษณะเป็นการอธิบาย ซึ่งอาจเป็นการทำให้วิทยาศาสตร์เชิงประจักษ์เป็นเอกภาพมากขึ้น โดยไม่เป็นเพียงการพูดถึงวิทยาศาสตร์พื้นฐานอย่างฟิสิกส์พื้นฐานเท่านั้น แต่ยังพูดรวมถึงวิทยาศาสตร์สาขาพิเศษ เช่น ชีววิทยา จิตวิทยา เศรษฐศาสตร์และมานุษยวิทยา หลังจากสงครามโลกครั้งที่ 2 สิ้นสุดลงในปี 1945 แนวคิดแบบปฏิฐานนิยมเชิงตรรกะได้เปลี่ยนไปสู่แนวคิดปฏิฐานนิยมเชิงประจักษ์ Allและได้มีอีกหลายความคิดอย่าง ปฏิฐานนิยมใหม่ (neopositivism) ที่เสนอแนวคิด การพิสูจน์ว่าเป็นจริง

นักคิดกลุ่มปฏิฐานิยมใหม่ได้ศึกษาการเกิดขึ้นของปรัชญาสาขาย่อยน้องใหม่อย่างปรัชญาวิทยาศาสตร์ โดยทำการศึกษา ค้นคว้าเกี่ยวกับคำถามและแง่มุมของทฤษฎีและความรู้ทางวิทยาศาสตร์ [23] สัจจะนิยมทางวิทยาศาสตร์ถือว่าข้อความทางวิทยาศาสตร์มีความหมายตามที่เขียน ซึ่งอาจเป็นทั้งความเท็จและความจริง น่าจะเป็น ใกล้เคียงหรือจริงแท้ [17] นักคิดกลุ่มปฏิฐานิยมใหม่ถือว่าแนวคิดปฏิสัจจะนิยมทางวิทยาศาสตร์เป็นแนวคิดอุปกรณ์นิยม ที่มองว่าทฤษฎีทางวิทยาศาสตร์เป็นเพียงเครื่องมือในการทำนายการสังเกต ในขณะที่ข้อความที่เกี่ยวกับสิ่งที่ไม่สามารถสังเกตได้ในธรรมชาติ เป็นข้อความของส่วนที่ใกล้เคียงหรือเป็นข้อความเชิงเปรียบเทียบของสิ่งที่สังเกตได้ [24]

ในปี 1942 แบบจำลอง DN ได้รับการลงรายละเอียดและมีอิทธิพลมากที่สุดโดยการนำเสนอของ คาร์ล เฮมเพล เป็นครั้งแรกในบทความเรื่อง "หน้าที่ของกฎทั่วไปในประวัติศาสตร์ " และได้รับการเพิ่มเติมให้ชัดเจนขึ้นโดย พอล โอเพนไฮม์ ในบทความปี 1948 เรื่อง "การศึกษาในตรรกะของคำอธิบาย" [25] [26] นักประจักษ์นิยมเชิงตรรกะชั้นนำอย่างเฮมเพลยอมรับมุมมองเชิงประจักษ์ของฮูม ที่ว่ามนุษย์สังเกตลำดับเหตุการณ์ทางประสาท แต่ไม่ได้มองเห็นความเป็นสาเหตุและผลลัพธ์ [27] เนื่องจากความสัมพันธ์เชิงสาเหตุและกลไกเชิงสาเหตุเป็นสิ่งที่ไม่สามารถสังเกตได้ [28] แบบจำลอง DN หลีกเลี่ยงความเป็นสาเหตุโดยให้เป็นตัวเชื่อมที่เกิดต่อกันทันที เช่น เริ่มแรกเกิดเหตุการณ์ A จากนั้นจึงเกิดเหตุการณ์ B ตามาเสมอ

เฮมเพลถือว่ากฎธรรมชาติ หรือความสม่ำเสมอที่ได้รับการยืนยันเชิงประจักษ์เป็นเรื่องที่น่าพอใจหากรวมความเป็นจริงเข้ากับสาเหตุโดยประมาณ [6] ในบทความหลัง ๆ เฮมเพลได้ปกป้องแบบจำลอง DN และเสนอคำอธิบายแบบความน่าจะเป็นโดยใช้ แบบจำลองเชิงสถิติและอุปนัย (แบบจำลอง IS) โดยที่ความน่าจะเป็นต้องสูงเช่นอย่างน้อย 50% เมื่อรวมแบบจำลอง DN และแบบจำลอง IS ร่วมกันจึงเกิดเป็นแบบจำลองกฎครอบคลุม ตามที่ได้รับการตั้งชื่อโดยนักวิจารณ์ วิลเลียมื เดรย์ [29] การนำหลักสถิติมาใช้ทำให้เกิดเป็นทแบบจำลองเชิงสถิติและนิรนัย (แบบจำลอง DS) [30] [31] ซึ่งจอร์จ เฮนริก ฟอน ไรท์ และนักวิจารณ์อีกคนตั้งชื่อ ทฤษฎีการควบรวมหมด [32]

ความเสื่อมถอย[แก้]

ท่ามกลางความล้มเหลวของหลักการพื้นฐานของ แนวคิดปฏิฐานนิยมใหม่ [33] Hempel ในปี 1965 เฮมเพลได้ละแนวคิดการพิสูจน์ว่าเป็นจริง ซึ่งเป็นสัญญาณบ่งบอกถึงการตายของแนวคิดปฏิฐานนิยมใหม่ [34] ตั้งแต่ปี 1930 เป็นต้นมา คาร์ล ป็อปเปอร์ได้หักล้างความคิดปฏิฐานนิยมต่าง ๆ โดยเสนอแนวคิดก การพิสูจน์ว่าเป็นเท็จ ซึ่ง ป็อปเปอร์อ้างว่าได้ทำลายแนวคิดแบบปฏิฐานนิยมได้ แต่ผู้คนมักเข้าใจว่าป๊อปเปอร์เป็นนักปฏิฐานนิยม [35] [36] เพราะแม้แต่หนังสือของป๊อปเปอร์ในที่ 1934 [37] ก็ยอมรับแบบจำลอง DN [7] [25] และได้รับการยอมรับอย่างกว้างขวางว่าเป็นรูปแบบของคำอธิบายทางวิทยาศาสตร์สำหรับตราบเท่าที่ฟิสิกส์ยังคงรูปแบบของวิทยาศาสตร์การตรวจสอบโดยนักปรัชญาของวิทยาศาสตร์ [28] [38]

ในช่วงทศวรรษที่ 1940 ความสามารถและวิทยาการต่าง ๆ ทำให้วิชาเซลล์วิทยา [39] และชีวเคมี [40] ชีววิทยาของเซลล์ได้ถือกำเนิดขึ้น[41] เผยให้เห็นถึงการดำรงอยู่ของออร์แกเนลล์ของเซลล์นอกเหนือจากนิวเคลียส ในช่วงปลายทศวรรษที่ 1930 มีการทำโครงการวิจัยอณูชีววิทยาและในช่วงต้นทศวรรษที่ 1960 ได้ถอดรหัสรหัสพันธุกรรมสำเร็จ จากนั้นจึงรวมเข้ากับชีววิทยาเป็นชีววิทยาระดับ เซลล์และโมเลกุล การค้นพบใหม่นี้เป็นการท้าทายรูปแบบจำลอง DN เพราะการแสวงหาการอธิบายที่ไม่เหมือนกฎทางวิทยาศาสตร์ แต่เป็นกลไกเชิงสาเหตุ[28] ชีววิทยากลายเป็นรูปแบบใหม่ของวิทยาศาสตร์ในขณะที่ วิทยาศาสตร์พิเศษ ไม่ได้ถูกมองว่าบกพร่องอีกต่อไปเพียงเพราะขาดกฎสากลเช่นเดียวกับฟิสิกส์ [38]

ในปี 1948 เมื่อชี้แจงแบบจำลอง DN โดยพูดถึงเงื่อนไขกึ่งทางการของความเพียงพอของการอธิบายทางวิทยาศาสตร์ เฮมเพลและโอเพลไฮม์ ได้รับการยอมรับว่าเนื้อหาเชิงประจักษ์ เป็นความซ้ำซ้อนที่ได้มาโดยนัยจาก ความสามารถในการสรุป (CA1) ความเป็นกฎ (CA2) และความจริง (CA4) [2] ในช่วงต้นทศวรรษ 1980 ได้มีมุมมองที่แพร่หลายว่าความเป็นสาเหตุทำให้มั่นใจได้ถึงความเกี่ยวข้องกับคำอธิบาย (explanan) เวสลีย์ แซลมอน เรียกร้องให้เปลี่ยนการพิจารณาจาก สาเหตุ เป็น เพราะว่า [42] และ เจมส์ เฟตเซอร์ ช่วยแทนที่ เนื้อหาเชิงประจักษ์ CA3 ด้วย ความจำเพาะสูงสุดที่เข้มงวด ของ CA3 [43]

แซลมอนเสนอแนวคิดการอธิบายเชิงกลอย่างมีสาเหตุ แม้ไม่ได้ให้รายละเอียดเจาะลึก แต่ก็ทำให้นักปรัชญามีความสนใจในเรื่องนี้ [28] เพราะแบบจำลองเชิงสถิติและอุปนัย (แบบจำลอง IS) ของเฮลเพลมีข้อบกพร่อง แซลมอนจึงได้เสนอ แบบจำลองความสัมพันธ์ทางสถิติ (แบบจำลอง SR) [7] แม้ว่าแบบจำลอง DN ยังคงเป็นรูปแบบของคำอธิบายทางวิทยาศาสตร์ในอุดมคติ โดยเฉพาะอย่างยิ่งในวิทยาศาสตร์ประยุกต์ นักปรัชญาวิทยาศาสตร์ส่วนใหญ่กลับมองว่าแบบจำลอง DN มีข้อบกพร่อง เพราะไม่รวมคำอธิบายหลายประเภทที่ยอมรับโดยทั่วไปว่าเป็นวิทยาศาสตร์ [31]

จุดแข็งของแบบจำลอง[แก้]

ญาณวิทยา ในฐานะทฤษฎีความรู้มีความแตกต่างจากภววิทยาทฤษฎีแห่งความเป็นจริง ซึ่งเป็นสาขาย่อยของอภิปรัชญา ภววิทยาแสดงให้เห็นถึงประเภทของการมีอยู่ โดยศึกษาว่ามีสิ่งไหนดำรงอยู่จริง ดังนั้นแม้ว่าข้อผูกมัดทางภววิทยาของทฤษฎีทางวิทยาศาสตร์สามารถเปลี่ยนแปลงได้ตามประสบการณ์ แต่ข้อผูกมัดทางภววิทยามักมีมาก่อนข้อมูลเชิงประจักษ์อย่างหลีกเลี่ยงไม่ได้ [44]

สิ่งที่เรียกกันว่ากฎธรรมชาติ เป็นข้อความที่เกิดจากการสังเกตของมนุษย์ ดังนั้นจึงเป็นปัญหาทางญาณวิทยาที่เกี่ยวข้องกับความรู้ของมนุษย์ ส่วนกลไกและโครงสร้างเชิงสาเหตุที่มีอยู่โดยไม่ขึ้นกับจิตใจมีอยู่จริง หรืออาจจะมีอยู่ในโครงสร้างของโลกตามธรรมชาติก็ได้ ดังนั้นจึงเป็นปัญหาทางด้านภววิทยา การสร้างความไม่ชัดเจนระหว่างญาณวิทยาและภววิยา มีแนวโน้มที่จะก่อให้เกิดความ ความผิดพลาดของแคทิกอรี [45] [46]

เมื่อไม่มีการอ้างถึงข้อผูกมัดทางภววิทยาที่รวมถึงความเป็นสาเหตุ ทำให้แบบจำลอง DN อนุญาตให้กฎของทฤษฎีถูกลดทอนลงสู่กฎย่อย ๆ พื้นฐานของทฤษฎีได้ กฎของทฤษฎีที่สูงกว่าถูกอธิบายในแบบจำลอง DN ตามกฎของทฤษฎีที่ต่ำกว่า [5] [6] ดังนั้นความสำเร็จทางญาณวิทยาของกฎความโน้มถ่วงสากลของทฤษฎีนิวตัน จึงลดทอนลงเป็นหรืออธิบายได้โดย ทฤษฎีสัมพัทธภาพทั่วไปของอัลเบิร์ต ไอน์สไตน์ แม้ว่าไอน์สไตน์จะปฏิเสธข้ออ้างด้านภววิทยาของนิวตันที่ว่าความโน้มถ่วงสากลที่ทำนายกฎการเคลื่อนที่ของดาวเคราะห์ของเคปเลอร์ [47] มาจากมุมมองที่ผ่านกลไกเชิงสาเหตุของแรงที่ดึงดูดอย่างตรงไปตรงมาในปริภูมิและเวลาสัมบูรณ์อวกาศที่

แบบจำลองกฎที่ครอบคลุมสะท้อนให้เห็นถึงวิสัยทัศน์ของกลุ่มปฏิฐานนิยมใหม่ต่อวิทยาศาสตร์เชิงประจักษ์ ซึ่งเป็นความคิดที่ต้องการตีความหรือสันนิษฐานถึงเอกภาพของวิทยาศาสตร์ โดยมองว่าวิทยาศาสตร์เชิงประจักษ์ทั้งหมดนั้นถ้าไม่เป็นวิทยาศาสตร์พื้นฐาน เช่น ฟิสิกส์พื้นฐาน ก็จะเป็นวิทยาศาสตร์พิเศษ เช่น ฟิสิกส์ดาราศาสตร์ เคมี ชีววิทยา ธรณีวิทยา จิตวิทยา เศรษฐศาสตร์ และอื่น ๆ [38] [48] [49] วิทยาศาสตร์พิเศษทั้งหมดจะสร้างเครือข่ายผ่านแบบจำลองกฎที่ครอบคลุมให้คล้ายกับวิทยาศาสตร์พื้นฐาน [50] และด้วยการระบุ เงื่อนไขขอบเขต และจัดหา กฎที่เป็นสะพาน มาเชื่อม โดยกฎทางวิทยาศาสตร์ที่เป็นกฎพิเศษใด ๆ จะถูกลดทอนลงเป็นกฎทางวิทยาศาสตร์พิเศษที่ต่ำกว่าซึ่งในที่สุดก็ลดลง จนกลายเป็นวิทยาศาสตร์พื้นฐานไปในที่สุด [51] ( เงื่อนไขขอบเขต คือ เงื่อนไข ที่ระบุไว้เมื่อปเกิดรากฏการณ์ที่น่าสนใจขึ้น กฎที่เป็นสะพาน จะช่วยแปลคำศัพท์ในวิทยาศาสตร์สาขาหนึ่งสู่คำศัพท์ในวิทยาศาสตร์อีกสาขาหนึ่ง ) [52]

จุดอ่อนของแบบจำลอง[แก้]

ตามแบบจำลอง DN ถ้ามีคนถามว่า "ทำไมเงานั้นถึงยาว 20 ฟุต" อีกคนก็ตอบได้ว่า "เพราะเสาธงนั้นสูง 15 ฟุตดวงอาทิตย์อยู่ที่มุม x และเป็นไปตามกฎของแม่เหล็กไฟฟ้า " [6] แต่ถ้ามีปัญหาเรื่องความสมมาตร หากมีคนถามว่า "ทำไมเสาธงนั้นสูง 15 ฟุต" อีกคนก็ตอบได้ว่า "เพราะเงานั้นยาว 20 ฟุตดวงอาทิตย์อยู่ที่มุม x และกฎของแม่เหล็กไฟฟ้า" เช่นเดียวกัน ซึ่งเป็นการนิรนัยจากเงื่อนไขของกฎทางวิทยาศาสตร์และสิ่งที่สังเกตได้ แต่คำตอบนี้ไม่ถูกต้องอย่างเห็นได้ชัด สำหรับปัญหาเรื่องความไม่เกี่ยวข้องนี้ หากมีใครถามว่า "ทำไมผู้ชายคนนั้นถึงไม่ท้อง" ส่วนหนึ่งอาจตอบได้ในหมู่คำอธิบาย (explanan) "เพราะเขากินยาคุม" ถ้าหากเป็นกรณีที่ผู้ชายคนนั้นกินยาคุมจริงและอ้างกฎทางวิทยาศาสตร์ว่ายาคุมป้องกันการตั้งครรภ์ได้ ก็สามารถนำมาอธิบายในแบบจำลอง DN เช่นกัน เนื่องจากไม่มีข้อจำกัดใด ๆ ที่จะขัดขวางการสังเกตจากคำอธิบาย

นักปรัชญาหลายคนสรุปว่าความเป็นสาเหตุต้องเป็นส่วนสำคัญของการอธิบายทางวิทยาศาสตร์ [53] แบบจำลอง DN เสนอเงื่อนไขจำเป็นของการอธิบายเชิงสาเหตุ โดยการให้ผลการทำนายที่ประสบความสำเร็จ แต่ไม่มีเงื่อนไขเพียงพอสำหรับการอธิบายเชิงสาเหตุ เนื่องจากสิ่งที่เกิดขึ้นประจำอาจรวมถึงความสัมพันธ์แบบปลอม ๆ หรือความสัมพันธ์แบบง่าย ๆ เช่น Z อยู่ตามหลัง Y เสมอ แต่ไม่ใช่ว่ามี Y แล้วจึงมี Z แต่เนื่องจากมีผลของ X ที่ทำให้เกิด Y แล้ว Z ตัวอย่างกฎของบอยล์อ้างถึงความสัมพันธ์ระหว่างอุณหภูมิ ความดันและปริมาตรของแก๊สภายในภาชนะ กฎของบอยล์ทำนายตัวแปรที่ไม่ทราบค่าได้ ไม่ว่าจะเป็นปริมาตร (v) ความดัน (p) หรืออุณหภูมิ (t) แต่ไม่ได้อธิบายว่าเหตุใด จคงควรคาดหวังเช่นนั้น เว้นแต่จะมีการเพิ่มทฤษฎีจลน์ของแก๊ส เข้าไปในการอธิบาย [54]

การอธิบายทางวิทยาศาสตร์มีความพยายามอย่างมากในการหลีกเลี่ยงการนำไปสู่กฎสากลแบบนิยัตินิยม โดยหันมาอธิบายแบบความคิดเชิงความน่าจะเป็นมากขึ้น [55] ตามกฎ ceteris paribus [38] แต่ก็ไม่สามารถอธิบายว่าการสูบบุหรี่ก่อให้เกิดมะเร็งปอดได้อย่างไร แม้จะใช้แบบจำลองเชิงสถิติและอุปนัย (แบบจำลอง IS) ซึ่งต้องมีความน่าจะเป็นมากกว่า 0.5 (50%) [56] (ความน่าจะเป็นมาตรฐานมีตั้งแต่ 0 (0%) ถึง 1 (100%) ) ระบาดวิทยาเป็นวิทยาศาสตร์ประยุกต์สาขาหนึ่งที่ใช้สถิติในการค้นหาความสัมพันธ์ระหว่างเหตุการณ์ต่าง ๆ แม้ไม่สามารถแสดงความเป็นสาเหตุได้ แต่พบว่าผู้ที่สูบหรี่เกิดมะเร็งปอดสูงมาก เมื่อเทียบกับผู้ที่ไม่สูบบุหรี่ที่คล้ายคลึงกัน แม้ว่าสัดส่วนของผู้สูบบุหรี่ที่เป็นมะเร็งปอดจะอยู่ในระดับปานกลางก็ตาม [57] เมื่อเทียบกับผู้ที่ไม่สูบบุหรี่แล้ว ผู้สูบบุหรี่เป็นเสี่ยงเป็นโรคมะเร็งปอดมากกว่าผู้ไม่สูบถึง 20 เท่า ซึ่งการวิจัยพื้นฐาน ล้วนลงเห็นตรงกันว่าข้อความ "การสูบบุหรี่เป็นสาเหตุหนึ่งของโรคมะเร็งปอด" นั้นเป็นการอธิบายทางวิทยาศาสตร์ [58] แม้จะมีบางกรณีที่สูบบุหรี่แต่ไม่เป็นมะเร็งปอดก็ตาม ซึ่งคือความเป็นสาเหตุที่มีข้อขัดแย้งเชิงสถิติ [59] [60]

ครอบคลุมการดำเนินการ[แก้]

ฟิสิกส์พื้นฐานมักถูกมองว่าเป็นวิทยาศาสตร์พื้นฐานเพราะใช้การอธิบายคล้ายกฎ ได้พัฒนาผ่านความสัมพันธ์ระหว่างทฤษฎีหลายทฤษฎีและการลดทอนทฤษฎี จนสามารถแก้ปัญหาความขัดแย้งในการทดลองต่าง ๆ นำไปสู่ความสำเร็จครั้งใหญ่ในประวัติศาสตร์ [61] ซึ่งคล้ายคลึงกับแบบจำลองกฎที่ครอบคลุม [62] ในช่วงต้นศตวรรษที่ 20 เอินสต์ มัคและวิลเฮล์ม ออสท์วัลด์ ได้ต่อต้านการลดทอนทฤษฎีอุณหพลศาสตร์ไปสู่กลศาสตร์ทางสถิติของลูทวิช บ็อลทซ์มัน รวมถึงกฎของบอยล์ [63] ส่วนหนึ่งเป็นเพราะว่าทฤษฎีอ้างอิงอยู่บนทฤษฎีจลน์ของแก๊ส [54] ซึ่งขึ้นอยู่กับ ทฤษฎีอะตอมและโมเลกุลของสสาร ทั้งนี้มัคและออสท์วัลด์มองว่าสสารเป็นตัวแปรของพลังงาน และโมเลกุลเป็นภาพลวงตาทางคณิตศาสตร์ ซึ่งแม้แต่บ็อลทซ์มันก็คิดว่าเป็นไปได้ [64]

ในปี 1905 อัลเบิร์ต ไอน์สไตน์ได้ ใช้กลศาสตร์ทางสถิติทำนายปรากฏการณ์การเคลื่อนที่แบบบราวเนียนสำเร็จ ซึ่งเป็นปรากฏการณ์ที่ไม่สามารถอธิบายได้ตั้งแต่ปี 1827 เสนอโดยโรเบิร์ต บราวน์ นักพฤกษศาสตร์ ต่อมานักฟิสิกส์ส่วนใหญ่ก็ยอมรับว่าอะตอมและโมเลกุลนั้น แม้ไม่สามารถสังเกตเห็นได้ แต่มีอยู่จริง นอกจากนี้ในปี 1905 ไอน์สไตน์ยังอธิบายพลังงานของสนามแม่เหล็กไฟฟ้าที่กระจายออกมาเป็นอนุภาค ความสงสัยนี้เกิดขึ้นจนกระทั่งสามารถแก้ไขทฤษฎีอะตอมได้ในช่วงทศวรรษที่ 1910 และ 1920 [65] ในขณะเดียวกันปรากฏการณ์ทางกายภาพที่เป็นที่รู้จักทั้งหมดตกอยู่ภายใต้ความโน้มถ่วงหรือแม่เหล็กไฟฟ้า [66] ซึ่งทั้งสองทฤษฎีกล่าวไว้ไม่ตรงกัน [67] ความเชื่อว่าอีเทอร์เป็นที่มาของปรากฏการณ์ทางกายภาพทั้งหมดนั้นแทบจะเป็นเอกฉันท์ [68] [69] [70] [71] แม้ในการทดลองจะเกิดความขัดแย้งกัน [72] นักฟิสิกส์ก็พยายามแก้ไขลักษณะสมมติฐานของอีเทอร์ [73]

การค้นหาสมมติฐานที่ไม่มีประโยชน์อย่างอีเทอร์ ทำให้ในปี 1905 ไอน์สไตน์ใช้เหตุผลแบบ a priori เสนอว่ากรอบอ้างอิงเฉื่อยเป็นเอกภาพเดียวกัน เพื่ออ้างถึงหลักการพิเศษของสัมพันธภาพ ซึ่งล้มเลิกแนวคิดเรื่องอีเทอร์ไป และเปลี่ยนปริภูมิและเวลาให้เป็นปรากฏการณ์แบบสัมพันธ์ ซึ่งความสัมพันธ์ขึ้นอยู่กับ พลศาสตร์ไฟฟ้ากับหลักการนิวตัน และ ความสัมพันธ์แบบกาลิเลโอ เดิมทีไม่ว่าจะเป็นญาณวิทยาหรืออุปกรณ์นิยม แนวคิดของไอน์สไตน์ก็ได้การตีความว่าเป็นภววิทยาหรือเป็นจริง กล่าวคือเป็นการอธิบายเชิงกลแบบมีสาเหตุ และทำให้หลักการกลายเป็นทฤษฎี รวมถึงการล้มเลิกแรงโน้มถ่วงแบบนิวตัน และเมื่อคำทำนายผลการเกิดสุริยุปราคาสำเร็จในปี 1919 ทฤษฎีสัมพัทธภาพทั่วไปก็ได้เข้ามามีบทบาทแทนที่กฏความโน้มถ่วงสากลของนิมตัน กลายเป็นการปฏิวัติในวงการวิทยาศาสตร์ แม้จะได้รับแรงต่อต้านจากหลายฝ่าย แต่ก็ได้รับความยอมรับตั้งแต่ปี 1930 เป็นต้นมา

ในปี 1925 แวร์เนอร์ ไฮเซินแบร์คและ แอร์วิน ชเรอดิงเงอร์ได้สร้างทฤษฎีกลศาสตร์ควอนตัมของตัวเองขึ้น แม้ว่าคำอธิบายจะมีส่วนที่ขัดแย้งกัน แต่ทั้งสองทฤษฎีก็สามารถให้ผลการทำนายที่แม่นยำเหมือนกัน ในปี 1928 พอล ดิแรก สร้างแบบจำลองของอิเล็กตรอนโดยอิงจากทฤษฎีสัมพันทธภาพพิเศษ ทำให้เกิดทฤษฎี ทฤษฎีสนามควอนตัม (QFT), พลศาสตร์ไฟฟ้าควอนตัม (QED). ดิแรกตีความและทำนายปฏิยานุภาคของอิเล็กตรอน นำไปสู่การค้นพบโพซิตรอน แต่ทฤษฎีพลศาสตร์ไฟฟ้าควอนตัมมีปัญหาเรื่องพลังงาน ในขณะเดียวกันก็มีการค้นพบอันตรกิริยาอย่างเข้มและอันตรกิริยาอย่างอ่อน

ในปี 1941 ริชาร์ด ไฟน์แมนได้นำเสนอรูปแบบนิยมแนวทางอินทิเกรตตามเส้นทางของกลศาสตร์ควอนตัม ซึ่งนำไปสู่ การตีความ ว่าเป็นแบบจำลองเชิงกลแบบมีสาเหตุขัดแย้งกับรูปแบบนิยมแนวทางเมทริกซ์ของไฮเซนเบิร์กและรูปแบบนิยมแนวทางคลื่นของชเรอดิงเงอร์ [74] แม้ว่าทั้งสามจะเหมือนกันในเชิงประจักษ์ และมีการทำนายได้ร่วมกัน [75] จากนั้นไฟน์แมนได้หันมาค้นคว้าเกี่ยวกับ QED และพยายามสร้างแบบจำลองอนุภาคที่ไม่มีสนาม และพบว่าสุญญากาศว่างเปล่าอย่างแท้จริง [76] แต่เนื่องจากเรื่องอันตรกิริยาพื้นฐานมีผลต่อสนามเป็นสิ่งที่ทราบกันดี[77] เป็นผลให้ความพยายามของไฟย์แมนล้มเหลว ทฤษฎีทวิภาคคลื่น-อนุภาคของหลุยส์ เดอ เบรย ได้สร้างแนวคิด อะตอมนิยม กล่าวว่าอนุภาคแบ่งแยกไม่ได้ และเน้นยำความคิดเรื่องความไม่ต่อเนื่องของอนุภาคเป็นเรื่องที่ขัดแย่งในตัวเอง [78]

การประชุมในปี 1947 ฟรีแมน ไดสัน, ริชาร์ด ไฟน์แมน จูเลียน ชวิงเกอร์ และ ชิน-อิจิโระ โทโมนากะ ได้เสนอแนวคิด renormalization ซึ่งเป็นขั้นตอนการแปลง QED ให้กลายมาเป็นทฤษฎีที่ทำนายแม่นยำที่สุดในฟิสิกส์ [79] [80] โดยการรวมวิชาเคมี ทัศนศาสตร์และกลศาสตร์สถิติ [61] [81] ดังนั้น QED จึงได้รับการยอมรับจากนักฟิสิกส์ทั่วไป พอล ดิแรก วิพากษ์วิจารณ์ว่า renormalization แสดงให้เห็นถึงความไม่เป็นธรรมชาติ [82] และเรียกร้องให้มีอีเทอร์ [83] ในปี 1947 วิลลิส แลมป์ ได้พบการเคลื่อนไหวที่ผิดปกติของออร์บิทัลอิเล็กตรอน เกิดการเปลี่ยนแปลงของแลมป์เพราะว่าสูญญากาศไม่ว่างเปล่าอย่างแท้จริง [84] และ ความว่างเปล่า นำมาสู่การยกเลิกการมีอยู่ของอีเทอร์โดยแนวคิดทางฟิสิกส์ได้ดำเนินไปโดยไม่มีอีเทอร์อีก [76] รวมถึงการไม่พูดถึง ในขณะเดียวกัน "ความเบื่อหน่ายต่อคณิตศาสตร์ที่ไม่เป็นระเบียบ ทำให้นักปรัชญาฟิสิกส์ส่วนใหญ่มักจะละเลย QED"

นักฟิสิกส์กลัวแม้กระทั่งการเอ่ยถึง อีเทอร์ [85] ที่ถูกเปลี่ยนชื่อเป็น สุญญากาศ [83] [86] ซึ่งเป็นสิ่งที่ไม่มีอยู่จริง [87] นักปรัชญาวิทยาศาสตร์ทั่วไปมักเชื่อว่าอีเทอร์เป็นเรื่องแต่ง [88] และตกหล่นอยู่ในถังขยะของประวัติศาสตร์วิทยาศาสตร์นับแต่ปี 1905 ซึ่งมีการใช้ทฤษฎีสัมพัทธภาพพิเศษ [89] ไอน์สไตน์บอกปัดการไม่มีอยู่ของอีเทอร์ [90] โดยกล่าวว่ามันไม่จำเป็นต้องมี [91] เมื่อยกเลิกการเคลื่อนที่แบบนิวตันในวิชาพลศาสตร์ไฟฟ้า ทำให้ไอน์สไตน์สนับสนุนแนวคิดอีเทอร์โดยไม่ได้ตั้งใจ [92] และอธิบายการเคลื่อนที่ถูกนำกลับไปสู่อีเทอร์ใน ทฤษฎีสัมพัทธภาพทั่วไป [93] [94] ทำให้ทฤษฎีสัมพัทธภาพ [95] เริ่มมีความเกี่ยวข้องกับทฤษฎีอีเทอร์ก่อนหน้านี้ ซึ่งอีเทอร์เป็นคำและแนวคิดที่เป็นสิ่งต้องห้าม [96] ไอน์สไตน์อธิบายถึงความเข้ากันได้ของสัมพัทธภาพพิเศษกับอีเทอร์ [97] แต่ไอน์สไตน์ก็ไม่เห็นด้วยเช่นกัน วัตถุกลายเป็นความคิดที่ตรึงไว้บน ปริภูมิ-เวลา โดยตรง [98] ผ่านความสัมพันธ์ทางเรขาคณิตเชิงนามธรรมโดยไม่มีสื่อกลางที่เพ้อเจ้อหรือของไหล [99]

ในปี 1970 ทฤษฎี QED และ สนามนิวเคลียร์อย่างอ่อน ถูกลดลงทอนลงเป็นทฤษฎีอิเล็กโตรวีค (EWT) และ สนามนิวเคลียร์อย่างเข้มกลายมาเป็นควอนตัมโครโมไดนามิกส์ (QCD) [79] แบบจำลองมาตรฐานของฟิสิกส์อนุภาค ประกอบด้วย ทฤษฎีอิเล็กโตรวีค ควอนตัมโครโมไดนามิกส์ และสนามฮิกส์กลายเป็น "ทฤษฎีที่มีประสิทธิผล" [100] แต่ไม่ได้เป็นพื้นฐานอย่างแท้จริง [101] [102] เนื่องจากอนุภาคของ QCD ถือว่าไม่มีอยู่จริงในโลก [76] แต่ QCD ก็ได้ยืนยันการมีอยู่ของอีเทอร์ [103] ซึ่งพบได้บ่อยโดยการทดลองทางฟิสิกส์ว่ามีอยู่จริงและแสดงสมมาตรเชิงสัมพันธ์ [96] การยืนยัน อนุภาคฮิกส์ โดยจำลองเป็นการควบแน่นภายใน สนามฮิกส์ ยืนยันการมีอยู่ของอีเทอร์ [85] แม้ว่าฟิสิกส์จะไม่จำเป็นต้องพูดถึงอีเทอร์อีก

ในปี 1905 ไอน์สไตน์ได้อนุมานความสมมูลมวล - พลังงานจากทฤษฎีสัมพัทธภาพพิเศษ [104] อนุภาคเป็นรูปแบบของพลังงานแบบกระจายที่แตกต่างกัน [105] วิธีที่ อนุภาคชนกันด้วยความเร็วมหาศาล เกิดการเปลี่ยนพลังงานเป็นมวลทำให้เกิดอนุภาคที่หนักขึ้น [106] แม้ว่านักฟิสิกส์จะชอบพูดให้เกิดความสับสน [107] แต่ในฐานะที่เป็น "หัวข้อร่วมสมัยของการวิจัยเชิงอภิปรัชญา" QFTs เสนอว่าอนุภาคไม่ได้มีตามลำพัง แต่เป็นรูปแบบการกระตุ้นของสนาม [101] อนุภาคและมวลของพวกมันเป็นสถานะของอีเทอร์ [76] เห็นได้ชัดว่าเป็นการรวมปรากฏการณ์ทางกายภาพทั้งหมดเป็นความเป็นจริงเชิงสาเหตุที่เป็นพื้นฐานมากขึ้น [86] [102] [103] แต่สนามควอนตัมเป็นสิ่งที่เป็นนามธรรมที่ซับซ้อน เป็นเหมือนสนามทางคณิตศาสตร์ จนแทบจะนึกไม่ถึงว่าเป็นคุณสมบัติทางกายภาพของสนามแบบดั้งเดิม [108] แง่มุมที่ลึกซึ้งยิ่งขึ้นของธรรมชาติยังไม่เป็นที่รู้จัก ซึ่งนี่อาจทำให้เข้าใจทฤษฎีสนามที่เป็นไปได้

ปัจจุบันนักฟิสิกส์ทฤษฎีสรุปว่าแรงปฏิกิริยาพื้นฐาน 4 แรงสามารถลดรูปลงเป็นทฤษฎีซูเปอร์สตริง ขณะที่อะตอมและโมเลกุลเป็นการสั่นพลังงานในรูปแบบเชิงคณิตศาสตร์ แม้ว่าจะมีความไม่แน่นอนในแนวคิดสัจจะนิยมทางวิทยาศาสตร์ แต่บางคนก็สรุปว่า ความเป็นสาเหตุ ทำให้เข้าใจการอธิบายทางวิทยาศาสตร์ ดังนั้นความเป็นสาเหตุจึงเป็นเรื่องสำคัญ แต่การหาการอธิบายทางวิทยาศาสตร์ที่แม่นยำก็เสื่อมความนิยมลงเมื่อวิทยาศาสตร์มีความก้าวหน้ามากขึ้น แม้แต่ญาณวิทยาก็ยากที่จะตอบคำถามเรื่องความเป็นสาเหตุ[55][57] แต่แบบจำลองกฎครอบคลุมของเฮมเพลก็สร้างผลงานที่ยิ่งใหญ่ต่อวงการปรับญาวิทยาศาสตร์

ดูสิ่งนี้ด้วย[แก้]

หมายเหตุ[แก้]

แหล่งที่มา[แก้]

อ่านเพิ่มเติม[แก้]

[[หมวดหมู่:ปรัชญาวิทยาศาสตร์]] [[หมวดหมู่:ทักษะกระบวนการทางวิทยาศาสตร์]]

  1. Woodward, "Scientific explanation", §2 "The DN model", in SEP, 2011.
  2. 2.0 2.1 James Fetzer, ch 3 "The paradoxes of Hempelian explanation", in Fetzer, ed, Science, Explanation, and Rationality (Oxford U P, 2000), p 113.
  3. Montuschi, Objects in Social Science (Continuum, 2003), pp 61–62.
  4. Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 2, subch "DN model of explanation and HD model of theory development", pp 25–26.
  5. 5.0 5.1 Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 2, subch "Axiomatic account of theories", pp 27–29.
  6. 6.0 6.1 6.2 6.3 Suppe, "Afterword—1977", "Introduction", §1 "Swan song for positivism", §1A "Explanation and intertheoretical reduction", pp 619–24, in Suppe, ed, Structure of Scientific Theories, 2nd edn (U Illinois P, 1977).
  7. 7.0 7.1 7.2 7.3 Kenneth F Schaffner, "Explanation and causation in biomedical sciences", pp 79–125, in Laudan, ed, Mind and Medicine (U California P, 1983), p 81.
  8. 8.0 8.1 G Montalenti, ch 2 "From Aristotle to Democritus via Darwin", in Ayala & Dobzhansky, eds, Studies in the Philosophy of Biology (U California P, 1974).
  9. In the 17th century, Descartes as well as Isaac Newton firmly believed in God as nature's designer and thereby firmly believed in natural purposiveness, yet found teleology to be outside science's inquiry (Bolotin, Approach to Aristotle's Physics, pp 31–33). By 1650, formalizing heliocentrism and launching mechanical philosophy, Cartesian physics overthrew geocentrism as well as Aristotelian physics. In the 1660s, Robert Boyle sought to lift chemistry as a new discipline from alchemy. Newton more especially sought the laws of nature—simply the regularities of phenomena—whereby Newtonian physics, reducing celestial science to terrestrial science, ejected from physics the vestige of Aristotelian metaphysics, thus disconnecting physics and alchemy/chemistry, which then followed its own course, yielding chemistry around 1800.
  10. Nicknames for principles attributed to Hume—Hume's fork, problem of induction, Hume's law—were not created by Hume but by later philosophers labeling them for ease of reference.
  11. By Hume's fork, the truths of mathematics and logic as formal sciences are universal through "relations of ideas"—simply abstract truths—thus knowable without experience. On the other hand, the claimed truths of empirical sciences are contingent on "fact and real existence", knowable only upon experience. By Hume's fork, the two categories never cross. Any treatises containing neither can contain only "sophistry and illusion". (Flew, Dictionary, "Hume's fork", p 156).
  12. Not privy to the world's either necessities or impossibilities, but by force of habit or mental nature, humans experience sequence of sensory events, find seeming constant conjunction, make the unrestricted generalization of an enumerative induction, and justify it by presuming uniformity of nature. Humans thus attempt to justify a minor induction by adding a major induction, both logically invalid and unverified by experience—the problem of induction—how humans irrationally presume discovery of causality. (Chakraborti, Logic, p 381; Flew, Dictionary, "Hume", p 156.
  13. For more discursive discussions of types of causality—necessary, sufficient, necessary and sufficient, component, sufficient component, counterfactual—see Rothman & Greenland, Parascandola & Weed, as well as Kundi. Following is more direct elucidation:

    A necessary cause is a causal condition required for an event to occur. A sufficient cause is a causal condition complete to produce an event. Necessary is not always sufficient, however, since other casual factors—that is, other component causes—might be required to produce the event. Conversely, a sufficient cause is not always a necessary cause, since differing sufficient causes might likewise produce the event. Strictly speaking, a sufficient cause cannot be a single factor, as any causal factor must act casually through many other factors. And although a necessary cause might exist, humans cannot verify one, since humans cannot check every possible state of affairs. (Language can state necessary causality as a tautology—a statement whose terms' arrangement and meanings render it is logically true by mere definition—which, as an analytic statement, is uninformative about the actual world. A statement referring to and contingent on the world's actualities is a synthetic statement, rather.)

    Sufficient causality is more actually sufficient component causality—a complete set of component causes interacting within a causal constellation—which, however, is beyond humans' capacity to fully discover. Yet humans tend intuitively to conceive of causality as necessary and sufficient—a single factor both required and complete—the one and only cause, the cause. One may so view flipping a light switch. The switch's flip was not sufficient cause, however, but contingent on countless factors—intact bulb, intact wiring, circuit box, bill payment, utility company, neighborhood infrastructure, engineering of technology by Thomas Edison and Nikola Tesla, explanation of electricity by James Clerk Maxwell, harnessing of electricity by Benjamin Franklin, metal refining, metal mining, and on and on—while, whatever the tally of events, nature's causal mechanical structure remains a mystery.

    From a Humean perspective, the light's putative inability to come on without the switch's flip is neither a logical necessity nor an empirical finding, since no experience ever reveals that the world either is or will remain universally uniform as to the aspects appearing to bind the switch's flip as the necessary event for the light's coming on. If the light comes on without switch flip, surprise will affect one's mind, but one's mind cannot know that the event violated nature. As just a mundane possibility, an activity within the wall could have connected the wires and completed the circuit without the switch's flip.

    Though apparently enjoying the scandals that trailed his own explanations, Hume was very practical and his skepticism was quite uneven (Flew p 156). Although Hume rejected orthodox theism and sought to reject metaphysics, Hume supposedly extended Newtonian method to the human mind, which Hume, in a sort of antiCopernican move, placed as the pivot of human knowledge (Flew p 154). Hume thus placed his own theory of knowledge on par with Newton's theory of motion (Buckle pp 70–71, Redman pp 182–83, Schliesser § abstract). Hume found enumerative induction an unavoidable custom required for one to live (Gattei pp 28–29). Hume found constant conjunction to reveal a modest causality type: counterfactual causality. Silent as to causal role—whether necessity, sufficiency, component strength, or mechanism—counterfactual causality is simply that alteration of a factor prevents or produces the event of interest.
  14. 14.0 14.1 Kundi M (2006). "Causality and the interpretation of epidemiologic evidence". Environmental Health Perspectives. 114 (7): 969–974. doi:10.1289/ehp.8297. PMC 1513293. PMID 16835045.
  15. Hume noted that authors ubiquitously continue for some time stating facts and then suddenly switch to stating norms—supposedly what should be—with barely explanation. Yet such values, as in ethics or aesthetics or political philosophy, are not found true merely by stating facts: is does not itself reveal ought. Hume's law is the principle that the fact/value gap is unbridgeable—that no statements of facts can ever justify norms—although Hume himself did not state that. Rather, some later philosophers found Hume to merely stop short of stating it, but to have communicated it. Anyway, Hume found that humans acquired morality through experience by communal reinforcement. (Flew, Dictionary, "Hume's law", p 157 & "Naturalistic fallacy", pp 240–41; Wootton, Modern Political Thought, p 306.)
  16. Kant inferred that the mind's constants arrange space holding Euclidean geometry—like Newton's absolute space—while objects interact temporally as modeled in Newton's theory of motion, whose law of universal gravitation is a truth synthetic a priori, that is, contingent on experience, indeed, but known universally true without universal experience. Thus, the mind's innate constants cross the tongs of Hume's fork and lay Newton's universal gravitation as a priori truth.
  17. 17.0 17.1 Chakravartty, "Scientific realism", §1.2 "The three dimensions of realist commitment", in SEP, 2013: "Semantically, realism is committed to a literal interpretation of scientific claims about the world. In common parlance, realists take theoretical statements at 'face value'. According to realism, claims about scientific entities, processes, properties, and relations, whether they be observable or unobservable, should be construed literally as having truth values, whether true or false. This semantic commitment contrasts primarily with those of so-called instrumentalist epistemologies of science, which interpret descriptions of unobservables simply as instruments for the prediction of observable phenomena, or for systematizing observation reports. Traditionally, instrumentalism holds that claims about unobservable things have no literal meaning at all (though the term is often used more liberally in connection with some antirealist positions today). Some antirealists contend that claims involving unobservables should not be interpreted literally, but as elliptical for corresponding claims about observables".
  18. Challenges to scientific realism are captured succinctly by Bolotin, Approach to Aristotle's Physics (SUNY P, 1998), pp 33–34, commenting about modern science, "But it has not succeeded, of course, in encompassing all phenomena, at least not yet. For it laws are mathematical idealizations, idealizations, moreover, with no immediate basis in experience and with no evident connection to the ultimate causes of the natural world. For instance, Newton's first law of motion (the law of inertia) requires us to imagine a body that is always at rest or else moving aimlessly in a straight line at a constant speed, even though we never see such a body, and even though according to his own theory of universal gravitation, it is impossible that there can be one. This fundamental law, then, which begins with a claim about what would happen in a situation that never exists, carries no conviction except insofar as it helps to predict observable events. Thus, despite the amazing success of Newton's laws in predicting the observed positions of the planets and other bodies, Einstein and Infeld are correct to say, in The Evolution of Physics, that 'we can well imagine another system, based on different assumptions, might work just as well'. Einstein and Infeld go on to assert that 'physical concepts are free creations of the human mind, and are not, however it may seem, uniquely determined by the external world'. To illustrate what they mean by this assertion, they compare the modern scientist to a man trying to understand the mechanism of a closed watch. If he is ingenious, they acknowledge, this man 'may form some picture of a mechanism which would be responsible for all the things he observes'. But they add that he 'may never quite be sure his picture is the only one which could explain his observations. He will never be able to compare his picture with the real mechanism and he cannot even imagine the possibility or the meaning of such a comparison'. In other words, modern science cannot claim, and it will never be able to claim, that it has the definite understanding of any natural phenomenon".
  19. Whereas a hypothetical imperative is practical, simply what one ought to do if one seeks a particular outcome, the categorical imperative is morally universal, what everyone always ought to do.
  20. Bourdeau, "Auguste Comte", §§ "Abstract" & "Introduction", in Zalta, ed, SEP, 2013.
  21. Comte, A General View of Positivism (Trübner, 1865), pp 49–50, including the following passage: "As long as men persist in attempting to answer the insoluble questions which occupied the attention of the childhood of our race, by far the more rational plan is to do as was done then, that is, simply to give free play to the imagination. These spontaneous beliefs have gradually fallen into disuse, not because they have been disproved, but because humankind has become more enlightened as to its wants and the scope of its powers, and has gradually given an entirely new direction to its speculative efforts".
  22. Flew, Dictionary (St Martin's, 1984), "Positivism", p 283.
  23. Friedman, Reconsidering Logical Positivism (Cambridge U P, 1999), p xii.
  24. อ้างอิงผิดพลาด: ป้ายระบุ <ref> ไม่ถูกต้อง ไม่มีการกำหนดข้อความสำหรับอ้างอิงชื่อ Chakravartty-Okasha
  25. 25.0 25.1 Woodward, "Scientific explanation", in Zalta, ed, SEP, 2011, abstract.
  26. Hempel, Carl G; Oppenheim, Paul (Apr 1948). "Studies in the logic of explanation". Philosophy of Science. 15 (2): 135–175. doi:10.1086/286983. JSTOR 185169.
  27. Woodward, "Scientific explanation", §1 "Background and introduction", in SEP, 2011.
  28. 28.0 28.1 28.2 28.3 Bechtel, Discovering Cell Mechanisms (Cambridge U P, 2006), esp pp 24–25.
  29. von Wright, Explanation and Understanding (Cornell U P, 1971), p 11.
  30. Woodward, "Scientific explanation", §2 "The DN model", §2.3 "Inductive statistical explanation", in Zalta, ed, SEP, 2011.
  31. 31.0 31.1 Stuart Glennan, "Explanation", § "Covering-law model of explanation", in Sarkar & Pfeifer, eds, Philosophy of Science (Routledge, 2006), p 276.
  32. Manfred Riedel, "Causal and historical explanation", in Manninen & Tuomela, eds, Essays on Explanation and Understanding (D Reidel, 1976), pp 3–4.
  33. Neopositivism's fundamental tenets were the verifiability criterion of cognitive meaningfulness, the analytic/synthetic gap, and the observation/theory gap. From 1950 to 1951, Carl Gustav Hempel renounced the verifiability criterion. In 1951 Willard Van Orman Quine attacked the analytic/synthetic gap. In 1958, Norwood Russell Hanson blurred the observational/theoretical gap. In 1959, Karl Raimund Popper attacked all of verificationism—he attacked, actually, any type of positivism—by asserting falsificationism. In 1962, Thomas Samuel Kuhn overthrew foundationalism, which was erroneously presumed to be a fundamental tenet of neopositivism.
  34. Fetzer, "Carl Hempel", §3 "Scientific reasoning", in SEP, 2013: "The need to dismantle the verifiability criterion of meaningfulness together with the demise of the observational/theoretical distinction meant that logical positivism no longer represented a rationally defensible position. At least two of its defining tenets had been shown to be without merit. Since most philosophers believed that Quine had shown the analytic/synthetic distinction was also untenable, moreover, many concluded that the enterprise had been a total failure. Among the important benefits of Hempel's critique, however, was the production of more general and flexible criteria of cognitive significance in Hempel (1965b), included in a famous collection of his studies, Aspects of Scientific Explanation (1965d). There he proposed that cognitive significance could not be adequately captured by means of principles of verification or falsification, whose defects were parallel, but instead required a far more subtle and nuanced approach. Hempel suggested multiple criteria for assessing the cognitive significance of different theoretical systems, where significance is not categorical but rather a matter of degree: 'Significant systems range from those whose entire extralogical vocabulary consists of observation terms, through theories whose formulation relies heavily on theoretical constructs, on to systems with hardly any bearing on potential empirical findings' (Hempel 1965b: 117). The criteria Hempel offered for evaluating the 'degrees of significance' of theoretical systems (as conjunctions of hypotheses, definitions, and auxiliary claims) were (a) the clarity and precision with which they are formulated, including explicit connections to observational language; (b) the systematic—explanatory and predictive—power of such a system, in relation to observable phenomena; (c) the formal simplicity of the systems with which a certain degree of systematic power is attained; and (d) the extent to which those systems have been confirmed by experimental evidence (Hempel 1965b). The elegance of Hempel's study laid to rest any lingering aspirations for simple criteria of 'cognitive significance' and signaled the demise of logical positivism as a philosophical movement".
  35. Popper, "Against big words", In Search of a Better World (Routledge, 1996), pp 89-90.
  36. Hacohen, Karl Popper: The Formative Years (Cambridge U P, 2000), pp 212–13.
  37. Logik der Forschung, published in Austria in 1934, was translated by Popper from German to English, The Logic of Scientific Discovery, and arrived in the English-speaking world in 1959.
  38. 38.0 38.1 38.2 38.3 Reutlinger, Schurz & Hüttemann, "Ceteris paribus", § 1.1 "Systematic introduction", in Zalta, ed, SEP, 2011.
  39. As scientific study of cells, cytology emerged in the 19th century, yet its technology and methods were insufficient to clearly visualize and establish existence of any cell organelles beyond the nucleus.
  40. The first famed biochemistry experiment was Edward Buchner's in 1897 (Morange, A History, p 11). The biochemistry discipline soon emerged, initially investigating colloids in biological systems, a "biocolloidology" (Morange p 12; Bechtel, Discovering, p 94). This yielded to macromolecular theory, the term macromolecule introduced by German chemist Hermann Staudinger in 1922 (Morange p 12).
  41. Cell biology emerged principally at Rockefeller Institute through new technology (electron microscope and ultracentrifuge) and new techniques (cell fractionation and advancements in staining and fixation).
  42. James Fetzer, ch 3 "The paradoxes of Hempelian explanation", in Fetzer J, ed, Science, Explanation, and Rationality (Oxford U P, 2000), pp 121–122.
  43. Fetzer, ch 3 in Fetzer, ed, Science, Explanation, and Rationality (Oxford U P, 2000), p 129.
  44. Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 1, subch "Areas of philosophy that bear on philosophy of science", § "Metaphysics", pp 8–9, § "Epistemology", p 11.
  45. H Atmanspacher, R C Bishop & A Amann, "Extrinsic and intrinsic irreversibility in probabilistic dynamical laws", in Khrennikov, ed, Proceedings (World Scientific, 2001), pp 51–52.
  46. Fetzer, ch 3, in Fetzer, ed, Science, Explanation, and Rationality (Oxford U P, 2000), p 118, poses some possible ways that natural laws, so called, when epistemic can fail as ontic: "The underlying conception is that of bringing order to our knowledge of the universe. Yet there are at least three reasons why even complete knowledge of every empirical regularity that obtains during the world's history might not afford an adequate inferential foundation for discovery of the world's laws. First, some laws might remain uninstantiated and therefore not be displayed by any regularity. Second, some regularities may be accidental and therefore not display any law of nature. And, third, in the case of probabilistic laws, some frequencies might deviate from their generating nomic probabilities 'by chance' and therefore display natural laws in ways that are unrepresentative or biased".
  47. This theory reduction occurs if, and apparently only if, the Sun and one planet are modeled as a two-body system, excluding all other planets (Torretti, Philosophy of Physics, pp 60–62).
  48. Spohn, Laws of Belief (Oxford U P, 2012), p 305.
  49. Whereas fundamental physics has sought laws of universal regularity, special sciences normally include ceteris paribus laws, which are predictively accurate to high probability in "normal conditions" or with "all else equal", but have exceptions [Reutlinger et al § 1.1]. Chemistry's laws seem exceptionless in their domains, yet were in principle reduced to fundamental physics [Feynman p 5, Schwarz Fig 1, and so are special sciences.
  50. Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 5, subch "Introduction: Relating disciplines by relating theories" pp 71–72.
  51. Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 5, subch "Theory reduction model and the unity of science program" pp 72–76.
  52. Bem & de Jong, Theoretical Issues (Sage, 2006), pp 45–47.
  53. O'Shaughnessy, Explaining Buyer Behavior (Oxford U P, 1992), pp 17–19.
  54. 54.0 54.1 Spohn, Laws of Belief (Oxford U P, 2012), p 306.
  55. 55.0 55.1 Karhausen, L. R. (2000). "Causation: The elusive grail of epidemiology". Medicine, Health Care and Philosophy. 3 (1): 59–67. doi:10.1023/A:1009970730507. PMID 11080970.
  56. Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 3, subch "Repudiation of DN model of explanation", pp 38–39.
  57. 57.0 57.1 Rothman, K. J.; Greenland, S. (2005). "Causation and Causal Inference in Epidemiology". American Journal of Public Health. 95: S144–S150. doi:10.2105/AJPH.2004.059204. PMID 16030331. {{cite journal}}: |hdl-access= ต้องการ |hdl= (help)
  58. Boffetta, "Causation in the presence of weak associations", Crit Rev Food Sci Nutr, 2010; 50(S1):13–16.
  59. Making no commitment as to the particular causal role—such as necessity, or sufficiency, or component strength, or mechanism—counterfactual causality is simply that alteration of a factor from its factual state prevents or produces by any which way the event of interest.
  60. In epidemiology, the counterfactual causality is not deterministic, but probabilistic Parascandola; Weed (2001). "Causation in epidemiology". J Epidemiol Community Health. 55 (12): 905–12. doi:10.1136/jech.55.12.905. PMC 1731812. PMID 11707485.
  61. 61.0 61.1 Schwarz, "Recent developments in string theory", Proc Natl Acad Sci U S A, 1998; 95:2750–7, esp Fig 1.
  62. Ben-Menahem, Conventionalism (Cambridge U P, 2006), p 71.
  63. Instances of falsity limited Boyle's law to special cases, thus ideal gas law.
  64. For brief review of Boltmann's view, see ch 3 "Philipp Frank", § 1 "T S Kuhn's interview", in Blackmore et al, eds, Ernst Mach's Vienna 1895–1930 (Kluwer, 2001), p 63, as Frank was a student of Boltzmann soon after Mach's retirement. See "Notes", pp 79–80, #12 for views of Mach and of Ostwald, #13 for views of contemporary physicists generally, and #14 for views of Einstein. The more relevant here is #12: "Mach seems to have had several closely related opinions concerning atomism. First, he often thought the theory might be useful in physics as long as one did not believe in the reality of atoms. Second, he believed it was difficult to apply the atomic theory to both psychology and physics. Third, his own theory of elements is often called an 'atomistic theory' in psychology in contrast with both gestalt theory and a continuum theory of experience. Fourth, when critical of the reality of atoms, he normally meant the Greek sense of 'indivisible substance' and thought Boltzmann was being evasive by advocating divisible atoms or 'corpuscles' such as would become normal after J J Thomson and the distinction between electrons and nuclei. Fifth, he normally called physical atoms 'things of thought' and was very happy when Ostwald seemed to refute the reality of atoms in 1905. And sixth, after Ostwald returned to atomism in 1908, Mach continued to defend Ostwald's 'energeticist' alternative to atomism".
  65. Physicists had explained the electromagnetic field's energy as mechanical energy, like an ocean wave's bodily impact, not water droplets individually showered (Grandy, Everyday Quantum Reality, pp 22–23). In the 1890s, the problem of blackbody radiation was paradoxical until Max Planck theorized quantum exhibiting Planck's constant—a minimum unit of energy. The quanta were mysterious, not viewed as particles, yet simply as units of energy. Another paradox, however, was the photoelectric effect.

    As shorter wavelength yields more waves per unit distance, lower wavelength is higher wave frequency. Within the electromagnetic spectrum's visible portion, frequency sets the color. Light's intensity, however, is the wave's amplitude as the wave's height. In a strictly wave explanation, a greater intensity—higher wave amplitude—raises the mechanical energy delivered, namely, the wave's impact, and thereby yields greater physical effect. And yet in the photoelectric effect, only a certain color and beyond—a certain frequency and higher—was found to knock electrons off a metal surface. Below that frequency or color, raising the intensity of the light still knocked no electrons off.

    Einstein modeled Planck's quanta as each a particle whose individual energy was Planck's constant multiplied by the light's wave's frequency: at only a certain frequency and beyond would each particle be energetic enough to eject an electron from its orbital. Although elevating the intensity of light would deliver more energy—more total particles—each individual particle would still lack sufficient energy to dislodge an electron. Einstein's model, far more intricate, used probability theory to explain rates of elections ejections as rates of collisions with electromagnetic particles. This revival of the particle hypothesis of light—generally attributed to Newton—was widely doubted. By 1920, however, the explanation helped solve problems in atomic theory, and thus quantum mechanics emerged. In 1926, Gilbert N Lewis termed the particles photons. QED models them as the electromagnetic field's messenger particles or force carriers, emitted and absorbed by electrons and by other particles undergoing transitions.
  66. Wolfson, Simply Einstein (W W Norton & Co, 2003), p 67.
  67. Newton's gravitational theory at 1687 had postulated absolute space and absolute time. To fit Young's transverse wave theory of light at 1804, space was theoretically filled with Fresnel's luminiferous aether at 1814. By Maxwell's electromagnetic field theory of 1865, light always holds a constant speed, which, however, must be relative to something, apparently to aether. Yet if light's speed is constant relative to aether, then a body's motion through aether would be relative to—thus vary in relation to—light's speed. Even Earth's vast speed, multiplied by experimental ingenuity with an interferometer by Michelson & Morley at 1887, revealed no apparent aether drift—light speed apparently constant, an absolute. Thus, both Newton's gravitational theory and Maxwell's electromagnetic theory each had its own relativity principle, yet the two were incompatible. For brief summary, see Wilczek, Lightness of Being (Basic Books, 2008), pp 78–80.
  68. Cordero, EPSA Philosophy of Science (Springer, 2012), pp 26–28.
  69. Hooper, Aether and Gravitation (Chapman & Hall, 1903), pp 122–23.
  70. Lodge (1909). "The ether of space". Sci Am Suppl. 67 (1734supp): 202–03. doi:10.1038/scientificamerican03271909-202supp.
  71. Even Mach, who shunned all hypotheses beyond direct sensory experience, presumed an aether, required for motion to not violate mechanical philosophy's founding principle, No instant interaction at a distance (Einstein, "Ether", Sidelights (Methuen, 1922), pp 15–18).
  72. Rowlands, Oliver Lodge (Liverpool U P, 1990), pp 159–60: "Lodge's ether experiments have become part of the historical background leading up to the establishment of special relativity and their significance is usually seen in this context. Special relativity, it is stated, eliminated both the ether and the concept of absolute motion from physics. Two experiments were involved: that of Michelson and Morley, which showed that bodies do not move with respect to a stationary ether, and that of Lodge, which showed that moving bodies do not drag ether with them. With the emphasis on relativity, the Michelson–Morley experiment has come to be seen as the more significant of the two, and Lodge's experiment becomes something of a detail, a matter of eliminating the final, and less likely, possibility of a nonstationary, viscous, all-pervading medium. It could be argued that almost the exact opposite may have been the case. The Michelson–Morley experiment did not prove that there was no absolute motion, and it did not prove that there was no stationary ether. Its results—and the FitzGerald–Lorentz contraction—could have been predicted on Heaviside's, or even Maxwell's, theory, even if no experiment had ever taken place. The significance of the experiment, though considerable, is purely historical, and in no way factual. Lodge's experiment, on the other hand, showed that, if an ether existed, then its properties must be quite different from those imagined by mechanistic theorists. The ether which he always believed existed had to acquire entirely new properties as a result of this work".
  73. Mainly Hendrik Lorentz as well as Henri Poincaré modified electrodynamic theory and, more or less, developed special theory of relativity before Einstein did (Ohanian, Einstein's Mistakes, pp 281–85). Yet Einstein, free a thinker, took the next step and stated it, more elegantly, without aether (Torretti, Philosophy of Physics, p 180).
  74. Schrödinger's wave mechanics posed an electron's charge smeared across space as a waveform, later reinterpreted as the electron manifesting across space probabilistically but nowhere definitely while eventually building up that deterministic waveform. Heisenberg's matrix mechanics confusingly talked of operators acting on quantum states. Richard Feynman introduced QM's path integral formalism—interpretable as a particle traveling all paths imaginable, canceling themselves, leaving just one, the most efficient—predictively identical with Heisenberg's matrix formalism and with Schrödinger's wave formalism.
  75. From 1925 to 1926, independently but nearly simultaneously, Werner Heisenberg as well as Erwin Schrödinger developed quantum mechanics (Zee in Feynman, QED, p xiv). Schrödinger introduced wave mechanics, whose wave function is discerned by a partial differential equation, now termed Schrödinger equation (p xiv). Heisenberg, who also stated the uncertainty principle, along with Max Born and Pascual Jordan introduced matrix mechanics, which rather confusingly talked of operators acting on quantum states (p xiv). If taken as causal mechanically explanatory, the two formalisms vividly disagree, and yet are indiscernible empirically, that is, when not used for interpretation, and taken as simply formalism (p xv).

    In 1941, at a party in a tavern in Princeton, New Jersey, visiting physicist Herbert Jehle mentioned to Richard Feynman a different formalism suggested by Paul Dirac, who developed bra–ket notation, in 1932 (p xv). The next day, Feynman completed Dirac's suggested approach as sum over histories or sum over paths or path integrals (p xv). Feynman would joke that this approach—which sums all possible paths that a particle could take, as though the particle actually takes them all, canceling themselves out except for one pathway, the particle's most efficient—abolishes the uncertainty principle (p xvi). All empirically equivalent, Schrödinger's wave formalism, Heisenberg's matrix formalism, and Feynman's path integral formalism all incorporate the uncertain principle (p xvi).

    There is no particular barrier to additional formalisms, which could be, simply have not been, developed and widely disseminated (p xvii). In a particular physical discipline, however, and on a particular problem, one of the three formalisms might be easier than others to operate (pp xvi–xvii). By the 1960s, path integral formalism virtually vanished from use, while matrix formalism was the "canonical" (p xvii). In the 1970s, path integral formalism made a "roaring comeback", became the predominant means to make predictions from QFT, and impelled Feynman to an aura of mystique (p xviii).
  76. 76.0 76.1 76.2 76.3 Wilczek, "The persistence of ether", Phys Today, 1999; 52:11,13, p 13.
  77. The four, known fundamental interactions are gravitational, electromagnetic, weak nuclear, and strong nuclear.
  78. Grandy, Everyday Quantum Reality (Indiana U P, 2010), pp 24–25.
  79. 79.0 79.1 Torretti, Philosophy of Physics (Cambridge U P, 1999), p 395.
  80. Schweber, QED and the Men who Made it (Princeton U P, 1994).
  81. Feynman, QED (Princeton U P, 2006), p 5.
  82. Torretti, Philosophy of Physics, (Cambridge U P, 1999), pp 395–96.
  83. 83.0 83.1 Cushing, Quantum Mechanics (U Chicago P, 1994), pp 158–59.
  84. Close, "Much ado about nothing", Nova, PBS/WGBH, 2012: "This new quantum mechanical view of nothing began to emerge in 1947, when Willis Lamb measured spectrum of hydrogen. The electron in a hydrogen atom cannot move wherever it pleases but instead is restricted to specific paths. This is analogous to climbing a ladder: You cannot end up at arbitrary heights above ground, only those where there are rungs to stand on. Quantum mechanics explains the spacing of the rungs on the atomic ladder and predicts the frequencies of radiation that are emitted or absorbed when an electron switches from one to another. According to the state of the art in 1947, which assumed the hydrogen atom to consist of just an electron, a proton, and an electric field, two of these rungs have identical energy. However, Lamb's measurements showed that these two rungs differ in energy by about one part in a million. What could be causing this tiny but significant difference? "When physicists drew up their simple picture of the atom, they had forgotten something: Nothing. Lamb had become the first person to observe experimentally that the vacuum is not empty, but is instead seething with ephemeral electrons and their anti-matter analogues, positrons. These electrons and positrons disappear almost instantaneously, but in their brief mayfly moment of existence they alter the shape of the atom's electromagnetic field slightly. This momentary interaction with the electron inside the hydrogen atom kicks one of the rungs of the ladder just a bit higher than it would be otherwise.
    "This is all possible because, in quantum mechanics, energy is not conserved on very short timescales, or for very short distances. Stranger still, the more precisely you attempt to look at something—or at nothing—the more dramatic these energy fluctuations become. Combine that with Einstein's E=mc2, which implies that energy can congeal in material form, and you have a recipe for particles that bubble in and out of existence even in the void. This effect allowed Lamb to literally measure something from nothing".
  85. 85.0 85.1 อ้างอิงผิดพลาด: ป้ายระบุ <ref> ไม่ถูกต้อง ไม่มีการกำหนดข้อความสำหรับอ้างอิงชื่อ Vongehr
  86. 86.0 86.1 Riesselmann "Concept of ether in explaining forces", Inquiring Minds, Fermilab, 2008.
  87. Close, "Much ado about nothing", Nova, PBS/WGBH, 2012.
  88. On "historical examples of empirically successful theories that later turn out to be false", Okasha, Philosophy of Science (Oxford U P, 2002), p 65, concludes, "One that remains is the wave theory of light, first put forward by Christian Huygens in 1690. According to this theory, light consists of wave-like vibrations in an invisible medium called the ether, which was supposed to permeate the whole universe. (The rival to the wave theory was the particle theory of light, favoured by Newton, which held that light consists of very small particles emitted by the light source.) The wave theory was not widely accepted until the French physicist Auguste Fresnel formulated a mathematical version of the theory in 1815, and used it to predict some surprising new optical phenomena. Optical experiments confirmed Fresnel's predictions, convincing many 19th-century scientists that the wave theory of light must be true. But modern physics tells us that the theory is not true: there is no such thing as the ether, so light doesn't consist of vibrations in it. Again, we have an example of a false but empirically successful theory".
  89. Pigliucci, Answers for Aristotle (Basic Books, 2012), p 119: "But the antirealist will quickly point out that plenty of times in the past scientists have posited the existence of unobservables that were apparently necessary to explain a phenomenon, only to discover later on that such unobservables did not in fact exist. A classic case is the aether, a substance that was supposed by nineteenth-century physicists to permeate all space and make it possible for electromagnetic radiation (like light) to propagate. It was Einstein's special theory of relativity, proposed in 1905, that did away with the necessity of aether, and the concept has been relegated to the dustbin of scientific history ever since. The antirealists will relish pointing out that modern physics features a number of similarly unobservable entities, from quantum mechanical 'foam' to dark energy, and that the current crop of scientists seems just as confident about the latter two as their nineteenth-century counterparts were about aether".
  90. Tavel, Contemporary Physics (Rutgers U P, 2001), pp , 66.
  91. Cordero, EPSA Philosophy of Science (Springer, 2012), pp 29–30.
  92. Wilczek, Lightness of Being (Basic Books, 2008), pp 78–80.
  93. Laughlin, A Different Universe (Basic Books, 2005), pp 120–21.
  94. Lorentz aether was at absolute rest—acting on matter but not acted on by matter. Replacing it and resembling Ernst Mach's aether, Einstein aether is spacetime itself—which is the gravitational field—receiving motion from a body and transmitting it to other bodies while propagating at light speed, waving. An unobservable, however, Einstein aether is not a privileged reference frame—is not to be assigned a state of absolute motion or absolute rest.
  95. Relativity theory comprises both special relativity (SR) and general relativity (GR). Holding for inertial reference frames, SR is as a limited case of GR, which holds for all reference frames, both inertial and accelerated. In GR, all motion—inertial, accelerated, or gravitational—is consequent of the geometry of 3D space stretched onto the 1D axis of time. By GR, no force distinguishes acceleration from inertia. Inertial motion is consequence simply of uniform geometry of spacetime, acceleration is consequence simply of nonuniform geometry of spacetime, and gravitation is simply acceleration.
  96. 96.0 96.1 Laughlin, A Different Universe, (Basic Books, 2005), pp 120–21: "The word 'ether' has extremely negative connotations in theoretical physics because of its past association with opposition to relativity. This is unfortunate because, stripped of these connotations, it rather nicely captures the way most physicists actually think about the vacuum. ... Relativity actually says nothing about the existence or nonexistence of matter pervading the universe, only that any such matter must have relativistic symmetry. It turns out that such matter exists. About the time that relativity was becoming accepted, studies of radioactivity began showing that the empty vacuum of space had spectroscopic structure similar to that of ordinary quantum solids and fluids. Subsequent studies with large particle accelerators have now led us to understand that space is more like a piece of window glass than ideal Newtonian emptiness. It is filled with 'stuff' that is normally transparent but can be made visible by hitting it sufficiently hard to knock out a part. The modern concept of the vacuum of space, confirmed every day by experiment, is a relativistic ether. But we do not call it this because it is taboo".
  97. Einstein, "Ether", Sidelights (Methuen, 1922), pp 14–18.
  98. In Einstein's 4D spacetime, 3D space is stretched onto the 1D axis of time flow, which slows while space additionally contracts in the vicinity of mass or energy.
  99. Torretti, Philosophy of Physics (Cambridge U P, 1999), p 180.
  100. As an effective field theory, once adjusted to particular domains, Standard Model is predictively accurate until a certain, vast energy scale that is a cutoff, whereupon more fundamental phenomena—regulating the effective theory's modeled phenomena—would emerge. (Burgess & Moore, Standard Model, p xi; Wells, Effective Theories, pp 55–56).
  101. 101.0 101.1 Torretti, Philosophy of Physics (Cambridge U P, 1999), p 396.
  102. 102.0 102.1 Jegerlehner, F. (2014). "The Standard Model as a Low-energy Effective Theory: What is Triggering the Higgs Mechanism?". Acta Physica Polonica B. 45 (6): 1167. arXiv:1304.7813. Bibcode:2014AcPPB..45.1167J. doi:10.5506/APhysPolB.45.1167. We understand the SM as a low energy effective emergence of some unknown physical system—we may call it 'ether'—which is located at the Planck scale with the Planck length as a 'microscopic' length scale. Note that the cutoff, though very large, in any case is finite.
  103. 103.0 103.1 Wilczek, Lightness of Being (Basic Books, 2008), ch 8 "The grid (persistence of ether)", p 73: "For natural philosophy, the most important lesson we learn from QCD is that what we perceive as empty space is in reality a powerful medium whose activity molds the world. Other developments in modern physics reinforce and enrich that lesson. Later, as we explore the current frontiers, we'll see how the concept of 'empty' space as a rich, dynamic medium empowers our best thinking about how to achieve the unification of forces".
  104. Mass–energy equivalence is formalized in the equation E=mc2.
  105. Einstein, "Ether", Sidelights (Methuen, 1922), p 13: "[A]ccording to the special theory of relativity, both matter and radiation are but special forms of distributed energy, ponderable mass losing its isolation and appearing as a special form of energy".
  106. Braibant, Giacomelli & Spurio, Particles and Fundamental Interactions (Springer, 2012), p 2: "Any particle can be created in collisions between two high energy particles thanks to a process of transformation of energy in mass".
  107. Brian Greene explained, "People often have the wrong image of what happens inside the LHC, and I am just as guilty as anyone of perpetuating it. The machine does not smash together particles to pulverise them and see what is inside. Rather, it collides them at extremely high energy. Since, by dint of Einstein's famous equation, E=mc2, energy and mass are one and the same, the combined energy of the collision can be converted into a mass, in other words, a particle, that is heavier than either of the colliding protons. The more energy is involved in the collision, the heavier the particles that might come into being" [Avent, "The Q&A", Economist, 2012].
  108. Kuhlmann, "Physicists debate", Sci Am, 2013.