ผลต่างระหว่างรุ่นของ "ภาวะสารูปสนิทดี"
เนื้อหาที่ลบ เนื้อหาที่เพิ่ม
ไม่มีความย่อการแก้ไข |
เพิ่มอ้างอิง |
||
บรรทัด 1: | บรรทัด 1: | ||
'''ภาวะสารูปสนิทดี''' ({{lang-en|goodness of fit}}) ของ[[Statistical model|แบบจำลองทางสถิติ]] เป็นการอธิบายว่าแบบจำลองดังกล่าวสนิทดีกับชุดการสังเกตหรือไม่ การวัดภาวะสารูปสนิทดีเป็นการสรุปข้อแตกต่างระหว่างค่าที่สังเกตได้กับค่าที่คาดหมายภายใต้แบบจำลองที่กำลังกล่าวถึง การวัดเช่นนี้อาจใช้ได้ใน[[Statistical hypothesis testing|การทดสอบสมมติฐานทางสถิติ]] เช่น ใช้เพื่อทดสอบการแจกแจงปกติของความคลาดเคลื่อน เพื่อทดสอบว่าตัวอย่างสองตัวอย่างมาจากการกระจายอย่างเดียวกันหรือไม่ (เช่น [[Kolmogorov–Smirnov test|การทดสอบโคลโมโกรอฟ-สมีร์นอฟ]]) หรือความถี่ของผลลัพธ์เข้ากับการกระจายแบบหนึ่งหรือไม่ (เช่น [[Pearson's chi-squared test|การทดสอบไคกำลังสองของเพียร์สัน]]) |
'''ภาวะสารูปสนิทดี''' ({{lang-en|goodness of fit}}) ของ[[Statistical model|แบบจำลองทางสถิติ]] เป็นการอธิบายว่าแบบจำลองดังกล่าวสนิทดีกับชุดการสังเกตหรือไม่ การวัดภาวะสารูปสนิทดีเป็นการสรุปข้อแตกต่างระหว่างค่าที่สังเกตได้กับค่าที่คาดหมายภายใต้แบบจำลองที่กำลังกล่าวถึง<ref name=Roenz1994>{{Cite book|editor1 = Bernd Rönz |editor2 = Hans G. Strohe |date = 1994 |title = Lexikon Statistik |language = de |publisher = Gabler Verlag |isbn = 978-3-409-19952-0}}</ref> การวัดเช่นนี้อาจใช้ได้ใน[[Statistical hypothesis testing|การทดสอบสมมติฐานทางสถิติ]] เช่น ใช้เพื่อทดสอบการแจกแจงปกติของความคลาดเคลื่อน เพื่อทดสอบว่าตัวอย่างสองตัวอย่างมาจากการกระจายอย่างเดียวกันหรือไม่ (เช่น [[Kolmogorov–Smirnov test|การทดสอบโคลโมโกรอฟ-สมีร์นอฟ]]) หรือความถี่ของผลลัพธ์เข้ากับการกระจายแบบหนึ่งหรือไม่ (เช่น [[Pearson's chi-squared test|การทดสอบไคกำลังสองของเพียร์สัน]]) |
||
== อ้างอิง == |
|||
⚫ | |||
{{รายการอ้างอิง}} |
|||
⚫ | |||
{{โครง}} |
รุ่นแก้ไขปัจจุบันเมื่อ 20:00, 28 พฤษภาคม 2565
ภาวะสารูปสนิทดี (อังกฤษ: goodness of fit) ของแบบจำลองทางสถิติ เป็นการอธิบายว่าแบบจำลองดังกล่าวสนิทดีกับชุดการสังเกตหรือไม่ การวัดภาวะสารูปสนิทดีเป็นการสรุปข้อแตกต่างระหว่างค่าที่สังเกตได้กับค่าที่คาดหมายภายใต้แบบจำลองที่กำลังกล่าวถึง[1] การวัดเช่นนี้อาจใช้ได้ในการทดสอบสมมติฐานทางสถิติ เช่น ใช้เพื่อทดสอบการแจกแจงปกติของความคลาดเคลื่อน เพื่อทดสอบว่าตัวอย่างสองตัวอย่างมาจากการกระจายอย่างเดียวกันหรือไม่ (เช่น การทดสอบโคลโมโกรอฟ-สมีร์นอฟ) หรือความถี่ของผลลัพธ์เข้ากับการกระจายแบบหนึ่งหรือไม่ (เช่น การทดสอบไคกำลังสองของเพียร์สัน)
อ้างอิง[แก้]
- ↑ Bernd Rönz; Hans G. Strohe, บ.ก. (1994). Lexikon Statistik (ภาษาเยอรมัน). Gabler Verlag. ISBN 978-3-409-19952-0.