ความเอนเอียงเพื่อยืนยัน

จากวิกิพีเดีย สารานุกรมเสรี

ความเอนเอียงเพื่อยืนยัน (ความคิดฝ่ายตน)[1] หรือ ความลำเอียงเพื่อยืนยัน (อังกฤษ: Confirmation bias, confirmatory bias, myside bias) เป็นความลำเอียงในข้อมูลที่ยืนยันความคิดหรือทฤษฎีหรือสมมติฐานฝ่ายตน[A][2] เราจะเรียกว่ามีความลำเอียงนี้เมื่อสะสมหรือกำหนดจดจำข้อมูลที่เราเลือกเฟ้น หรือว่าเมื่อมีการตีความหมายข้อมูลอย่างลำเอียง

ความลำเอียงนี้มีอยู่ในระดับสูงในประเด็นที่ให้เกิดอารมณ์หรือเกี่ยวกับความเชื่อที่ฝังมั่น นอกจากนั้นแล้ว เรามักจะตีความหมายข้อมูลที่ยังไม่ชัดเจนว่าสนับสนุนความคิดเห็นของเรา มีการใช้การสืบหา การตีความหมาย และการทรงจำข้อมูลประกอบด้วยความลำเอียงเช่นนี้ เพื่ออธิบายปรากฏการณ์ต่าง ๆ รวมทั้ง

  • ความเห็นที่สุดโต่งเพิ่มขึ้น (attitude polarization) คือเมื่อข้อขัดแย้งรุนแรงยิ่งขึ้นแม้ว่าทุก ๆ ฝ่ายจะได้หลักฐานเดียวกัน
  • ความยึดมั่นอยู่กับความเชื่อ (belief perseverance) แม้ว่าหลักฐานจะแสดงว่าเป็นความเชื่อผิด ๆ
  • การให้น้ำหนักกับหลักฐานที่ได้ตอนต้น ๆ ที่ไร้เหตุผล (irrational primacy effect) เป็นการให้น้ำหนักกับหลักฐานที่ได้ในตอนต้นและตอนอื่น ๆ ที่ไม่เท่ากัน
  • การสัมพันธ์เหตุการณ์ผิดพลาด (illusory correlation) คือมีการเชื่อมเหตุการณ์หรือสถานการณ์สองอย่างเข้าด้วยกัน โดยสร้างความสัมพันธ์ที่ไม่เป็นจริง

งานทดลองหลายงานในช่วงคริสต์ทศวรรษ 1960 บอกเป็นนัยว่า มนุษย์มีความลำเอียงที่จะยืนยันความเชื่อที่มีอยู่ของตน ส่วนงานวิจัยต่อ ๆ มาตีความหมายของผลการทดลองเหล่านั้นใหม่ว่า เป็นความเอนเอียงที่จะทดสอบความคิดต่าง ๆ จากทางด้านเดียวเท่านั้น คือ ให้ความสนใจต่อข้อสันนิษฐานเพียงข้อเดียวโดยที่ไม่ใส่ใจข้อสันนิษฐานที่เป็นไปได้ข้ออื่น ๆ ในบางกรณี ความลำเอียงนี้สามารถทำลายความเป็นกลางของข้อสรุป เหตุที่ใช้ในการอธิบายความลำเอียงเช่นนี้รวมทั้งความอยากที่จะให้เป็นอย่างนั้น (wishful thinking) และสมรรถภาพที่จำกัดในการประมวลข้อมูลของมนุษย์ ส่วนคำอธิบายอีกอย่างหนึ่งก็คือมนุษย์มีความเอนเอียงเพื่อยืนยันความคิดฝ่ายตน เพราะคำนึงถึงประโยชน์ที่จะเสียไปถ้าตนเองเป็นฝ่ายผิด แทนที่จะตรวจสอบข้อเท็จจริงโดยเป็นกลาง ๆ โดยใช้วิธีการทางวิทยาศาสตร์

ความลำเอียงนี้ทำให้เกิดความมั่นใจมากเกินไปในความเชื่อส่วนตัวของตน และสามารถรักษาหรือแม้แต่ทำให้ตั้งมั่นยิ่งขึ้นซึ่งความเชื่อผิด ๆ แม้ว่าจะมีหลักฐานที่แสดงข้อเท็จจริงคัดค้านความเชื่อนั้น การตัดสินใจที่ไม่ดีเหตุความลำเอียงเหล่านี้ พบได้ทั้งในสถานการณ์ทางการเมืองและในองค์กรต่าง ๆ[B]

เนื้อหา

ประเภท[แก้]

ความลำเอียงเพื่อยืนยันเป็นปรากฏการณ์เกี่ยวกับการประมวลข้อมูล ซึ่งต่างจากปรากฏการณ์ที่ยืนยันด้วยการกระทำ ที่เรียกว่า self-fulfilling prophecy (แปลว่า คำพยากรณ์ที่ตนทำให้เป็นจริง) ซึ่งพฤติกรรมที่เกิดจากความหวัง เป็นเหตุให้ความหวังนั้นกลายเป็นจริง[4] นักจิตวิทยาบางท่านใช้คำว่าความลำเอียงเพื่อยืนยัน เพื่อหมายถึงความโน้มน้าวที่จะหลีกเลี่ยงการยกเลิกความเชื่อเก่า ๆ ในขณะที่กำลังค้นหาหลักฐาน ตีความหมายหลักฐาน หรือระลึกถึงหลักฐานนั้น ๆ จากความจำ ส่วนนักจิตวิทยาพวกอื่นจำกัดการใช้คำนี้ในเรื่องการสั่งสมหลักฐานโดยเลือก (แต่สิ่งที่ยืนยันความเชื่อ)[5][C]

การหาข้อมูลอย่างลำเอียง[แก้]

งานทดลองต่าง ๆ พบเหมือน ๆ กันว่า มนุษย์มักจะตรวจสอบสมมติฐานจากทางด้านเดียว โดยค้นหาหลักฐานที่จะลงรอยกับสมมติฐานของตน[6][7] แทนที่จะสืบหาหลักฐานที่เกี่ยวข้องกันทั้งหมด มนุษย์มักจะตั้งคำถามเพื่อที่จะได้รับคำตอบเชิงบวกที่สนับสนุนสมมติฐานของตน[8] คือมักจะค้นหาผลที่จะเกิดขึ้นถ้าสมมติฐานของตนตรงกับความจริง ไม่ค้นหาผลที่เกิดขึ้นถ้าสมมติฐานของตนไม่ตรงกับความจริง[8] ยกตัวอย่างเช่น สำหรับบุคคลที่ใช้คำถามแบบถูกไม่ถูกเพื่อจะสืบหาตัวเลขที่สันนิษฐานว่าน่าจะเป็นเลข 3 อาจตั้งคำถามว่า "เลขนี้เป็นเลขคี่ใช่ไหม" เรามักจะนิยมคำถามชนิดนี้ ซึ่งเป็นคำถามที่เรียกว่า การทดสอบเชิงบวก (positive test) แม้ว่าการใช้คำถามเชิงลบว่า "เลขนี้เป็นเลขคู่ใช่ไหม" ความจริงแล้วก็จะได้ข้อมูลที่เหมือนกัน[9] แต่ว่า ไม่ใช่หมายความว่า เราใช้แต่การตรวจสอบที่จะได้คำตอบเป็นบวกเสมอไป ในงานทดลองที่ผู้ร่วมการทดลองสามารถเลือกการตรวจสอบเทียมหรือการตรวจสอบที่จะให้วินิจฉัยความจริงได้ ผู้ร่วมการทดลองชอบใจการตรวจสอบที่จะให้วินิจฉัยความจริงได้[10][11]

นอกจากนั้นแล้ว ความชอบใจในการทดสอบเชิงบวกไม่ใช่เป็นความเอนเอียงโดยตรง เนื่องจากว่าการทดสอบเช่นนี้สามารถให้ข้อมูลที่ดี[12] แต่ว่า เมื่อรวมเข้ากับพฤติกรรมอื่น ๆ วิธีเช่นนี้สามารถใช้เพื่อยืนยันความเชื่อหรือสมมติฐานของตน ไม่ว่าความเชื่อนั้นจะเป็นความจริงหรือไม่[13] ในชีวิตจริง ๆ แล้ว หลักฐานข้อมูลต่าง ๆ มักจะซับซ้อนและปรากฏผสมผเสรวมกัน ยกตัวอย่างเช่น ข้อคิดเห็นต่าง ๆ ที่ขัดแย้งกันเองเกี่ยวกับบุคคลหนึ่ง แต่ละอย่างสามารถสนับสนุนได้โดยดูพฤติกรรมด้านหนึ่งของบุคคลนั้น[7] ดังนั้น การหาหลักฐานเพื่อที่จะสนับสนุนสมมติฐานหนึ่ง ๆ จึงมีโอกาสสูงที่จะประสบผลสำเร็จ[13] ตัวอย่างหนึ่งก็คือ การตั้งคำถามสามารถมีผลต่อคำตอบได้โดยนัยสำคัญ[7] เช่นคำถามว่า "คุณมีความสุขในชีวิตสังคมของคุณหรือไม่" มักจะได้คำตอบเชิงบวกมากกว่าคำถามว่า "คุณไม่มีความสุขในชีวิตสังคมของคุณใช่ไหม"[14]

แม้แต่การเปลี่ยนแปลงคำถามเพียงเล็กน้อยสามารถมีผลต่อวิธีการที่ผู้ตอบเสาะหาข้อมูลเพื่อจะตอบ และดังนั้น จึงมีผลต่อคำตอบ มีการแสดงให้เห็นอย่างนี้ โดยงานวิจัยที่สมมุติคดีฟ้องร้องเกี่ยวกับการปกครองของเด็ก[15] คือมีการให้ผู้ร่วมการทดลองอ่านความว่า ผู้ปกครอง "ก" มีความเหมาะสมพอประมาณในการเป็นผู้ปกครองเพราะเหตุหลายอย่าง และผู้ปกครอง "ข" มีคุณสมบัติและคุณวิบัติที่เด่นหลายอย่าง เช่น มีความใกล้ชิดกับเด็กแต่มีอาชีพที่ต้องจากเด็กไปเป็นระยะเวลายาวนาน เมื่อถามว่า "ผู้ปกครองคนไหนควรจะได้รับสิทธิปกครองเด็ก" ผู้ร่วมการทดลองโดยมากเลือกผู้ปกครอง ข เพราะสืบหาแต่ลักษณะที่ดี ๆ แต่เมื่อถามว่า "ผู้ปกครองคนไหนไม่ควรจะได้รับสิทธิปกครองเด็ก" ผู้ร่วมการทดลองโดยมากก็เลือกผู้ปกครอง ข เช่นกัน เพราะสืบหาแต่ลักษณะที่เสีย ๆ ซึ่งโดยปริยายหมายความว่า ผู้ปกครอง ก ควรจะได้รับสิทธิปกครอง[15]

งานวิจัยที่คล้ายกันอื่น ๆ แสดงวิธีที่บุคคลต่าง ๆ เสาะหาข้อมูลประกอบด้วยความเอนเอียง แต่ว่า ความเอนเอียงสามารถจำกัดได้เพราะมนุษย์มีความชอบใจในข้อทดสอบที่เป็นกลางจริง ๆ ในการทดลองหนึ่ง ผู้ร่วมการทดลองให้คะแนนกับอีกคนหนึ่งว่าเป็นคนเปิดเผยหรือเป็นคนเก็บตัว โดยเลือกคำถามเพื่อสัมภาษณ์จากรายการที่ได้รับ ถ้าแนะนำผู้รับการสัมภาษณ์ว่าเป็นคนเก็บตัว ผู้ร่วมการทดลองก็จะเลือกคำถามที่ตั้งข้อสันนิษฐานว่าคนนั้นเป็นคนเก็บตัว เป็นต้นว่า "คุณไม่ชอบใจอะไรในงานปาร์ตี้ที่หนวกหู" แต่ว่าถ้าแนะนำว่า เป็นคนเปิดเผย คำถามที่เลือกเกือบทั้งหมดจะเป็นประเภทที่ตั้งข้อสันนิษฐานว่าคนนั้นเป็นคนเปิดเผยเป็นต้นว่า "คุณจะทำอย่างไรเพื่อจะเพิ่มสีสันให้กับงานปาร์ตี้ที่ไม่มีชีวิตชีวา" คำถามที่ชี้คำตอบอย่างนี้ไม่ได้ให้โอกาสผู้รับสัมภาษณ์ที่จะให้ข้อมูลที่พิสูจน์ว่าข้อสันนิษฐานนั้นผิดพลาด[16] ส่วนการทดลองนั้นอีกแบบหนึ่งให้คำถามที่เป็นกลาง ๆ มากกว่ากับผู้ร่วมการทดลองเพื่อให้เลือก เช่น "คุณปกติหลีกเลี่ยงการเข้าสังคมหรือไม่"[17] ปรากฏว่าผู้ร่วมการทดลองชอบใจที่จะถามคำถามที่สามารถให้หลักฐานวินิจฉัยที่ดีกว่า โดยมีความเอนเอียงเล็กน้อยเพียงเท่านั้นต่อคำถามแบบบวก ความเป็นไปเช่นนี้ ที่มีความชอบใจต่อข้อทดสอบที่เป็นกลาง ๆ และมีความชอบใจต่อคำถามเชิงบวกเพียงเล็กน้อย ก็พบในงานวิจัยอื่น ๆ อีกด้วย[17]

บุคลิกภาพมีอิทธิพลและทำงานร่วมกับกระบวนการค้นหาหลักฐานแบบลำเอียง[18] มนุษย์มีความสามารถต่าง ๆ กันในการยืนยันความคิดเห็นฝ่ายตนเมื่อคนอื่นคัดค้านโดยนัยว่า "ใช้หลักฐานตามเลือก" "เป็นการค้นหาแต่ข้อมูลที่เข้ากัน" และ "ไม่หาข้อมูลที่ไม่เข้ากัน"[19] งานทดลองหนึ่งตรวจสอบขอบเขตที่บุคคลสามารถหักล้างข้อโต้แย้ง ที่คัดค้านความความเชื่อฝ่ายตน[18] บุคคลที่มีความมั่นใจสูงมักจะสืบหาข้อมูลคัดค้านความคิดเห็นฝ่ายตนได้อย่างเต็มใจกว่า ส่วนบุคคลที่มีความมั่นใจต่ำมักจะไม่ค้นหาข้อมูลที่ไม่เข้ากัน แต่จะชอบใจข้อมูลที่สนับสนุนความคิดเห็นฝ่ายตน โดยย่อก็คือ มนุษย์มักจะค้นหาและประเมินหลักฐานจากหลักฐานที่มีความเอนเอียงไปทางความเชื่อหรือความเห็นฝ่ายตน[20] แต่ระดับความมั่นใจที่สูงจะช่วยลดความชอบใจในข้อมูลที่สนับสนุนความเชื่อส่วนตัว

งานทดลองอีกงานหนึ่งทดสอบผู้ร่วมการทดลองโดยให้ค้นหากฎการเคลื่อนไหวของวัตถุที่ซับซ้อน โดยสังเกตการเคลื่อนไหวของวัตถุที่จำลองโดยคอมพิวเตอร์[21] คือ วัตถุบนจอคอมพิวเตอร์จะเคลื่อนไหวตามกฎระเบียบอย่างหนึ่ง ซึ่งผู้ร่วมการทดลองต้องทำความเข้าใจ โดย "ยิง" วัตถุต่าง ๆ ข้ามจอคอมพิวเตอร์เพื่อที่จะทดสอบสมมติฐานของตน แม้ว่าจะทำความพยายามตลอด 10 ช.ม. ไม่มีใครเลยที่สามารถทำความเข้าใจกฎระเบียบของระบบ ผู้รับการทดลองมักจะพยายามหาหลักฐานเพื่อยืนยันสมมติฐานของตน แต่ไม่พยายามหาหลักฐานที่คัดค้าน และมักจะลังเลในการพิจารณาสมมติฐานอื่น ๆ แม้ว่าจะได้เห็นหลักฐานที่คัดค้านสมมติฐานของตน แต่ก็มักจะพยายามทำการทดสอบอย่างเดียวกันต่อ ๆ ไป และถึงแม้ว่าผู้ร่วมการทดลองบางท่านจะได้รับคำอธิบายเกี่ยวกับวิธีการทดสอบสมมติฐานที่ถูกต้อง แต่คำอธิบายเหล่านี้กลับแทบไม่มีผลอะไร[21]

การตีความหมายแบบเอนเอียง[แก้]

"คนฉลาดเชื่ออะไรแปลก ๆ เพราะว่าชำนาญในการ (หาเหตุผล) ที่ป้องกันรักษาความเชื่อของตน ที่เกิดขึ้นจากเหตุผลที่ไม่ฉลาดสักเท่าไร"

—Michael Shermer[22]

ความลำเอียงเพื่อยืนยันไม่ได้จำกัดอยู่เพียงแค่การสั่งสมหลักฐาน แม้ว่าคนสองคนจะมีหลักฐานเดียวกัน แต่การตีความหมายอาจจะประกอบกับความเอนเอียง

คณะวิจัยที่มหาวิทยาลัยสแตนฟอร์ดทำการทดลองกับผู้ร่วมการทดลองที่มีความเห็นชัดเจนเกี่ยวกับการลงโทษประหารชีวิต โดยที่ครึ่งหนึ่งเห็นด้วยอีกครึ่งหนึ่งคัดค้าน[23][24] ผู้ร่วมการทดลองแต่ละคนอ่านบทความงานวิจัยสองงาน งานแรกเป็นการเปรียบเทียบรัฐต่าง ๆ ในสหรัฐอเมริกาที่มีและไม่มีการลงโทษประหารชีวิต และงานที่สองเป็นการเปรียบเทียบอัตราการฆ่าคนตายในรัฐหนึ่ง ๆ ก่อนและหลังการออกกฎหมายลงโทษประหารชีวิต หลังจากการอ่านข้อความสั้น ๆ ของแต่ละงานวิจัย ก็จะถามผู้ร่วมการทดลองว่ามีความเห็นที่เปลี่ยนไปหรือไม่ หลังจากนั้น ก็ให้ผู้ร่วมการทดลองอ่านรายละเอียดของวิธีการในงานวิจัย และให้ผู้ร่วมการทดลองให้คะแนนว่า งานวิจัยนั้นทำได้ดีและน่าเชื่อถือแค่ไหน[23] แต่ว่าจริง ๆ แล้ว ผลงานวิจัยเหล่านั้นเป็นเรื่องกุขึ้น มีการบอกผู้ร่วมการทดลองครึ่งหนึ่งว่า มีงานวิจัยหนึ่งที่สนับสนุนว่ากฎหมายมีผลในการลดอัตราฆาตกรรม และงานวิจัยอีกงานหนึ่งแสดงว่ากฎหมายไม่มีผล ในขณะที่บอกผู้ร่วมการทดลองอีกครึ่งหนึ่งในนัยตรงกันข้าม[23][24]

ผู้ร่วมการทดลอง ไม่ว่าจะสนับสนุนหรือคัดค้านการลงโทษประหาร รายงานว่าความเห็นได้เปลี่ยนไปเล็กน้อยตามหลักฐานที่แสดงในงานวิจัยแรก แต่หลังจากที่ได้อ่านรายละเอียดของงานวิจัยทั้งสอง เกือบทั้งหมดจะกลับไปที่ความคิดเห็นเดิมของตนโดยไม่ขึ้นกับหลักฐานที่ได้ แล้วชี้รายละเอียดที่สนับสนุนข้อคิดเห็นของตนและทิ้งรายละเอียดอื่นที่คัดค้าน ผู้ร่วมการทดลองแสดงว่า งานวิจัยที่สนับสนุนความคิดเห็นของตนทำได้ดีกว่างานทดลองที่คัดค้าน โดยที่ผู้ร่วมการทดลองสามารถแสดงเหตุผลได้อย่างละเอียดและเฉพาะกรณี[23][25]

ผู้ที่สนับสนุนการลงโทษประหารกล่าวถึงงานวิจัยที่แสดงความที่กฎหมายไม่มีผลว่า "งานวิจัยสั่งสมข้อมูลในช่วงเวลาน้อยเกินไป" ในขณะที่ผู้คัดค้านการลงโทษประหารกล่าวถึงงานวิจัยเดียวกันว่า "ไม่มีหลักฐานสำคัญ (เพิ่มขึ้น) ที่จะมาคัดค้านผู้ทำงานวิจัย (ว่ากฎหมายมีผล)"[23] ผลงานวิจัยนี้แสดงว่า มนุษย์ใช้มาตรฐานที่สูงกว่าในการประเมินหลักฐานของสมมติฐานที่คัดค้านความคิดเห็นฝ่ายตน เป็นปรากฏการณ์ที่เรียกว่า ความเอนเอียงเพื่อคัดค้าน (disconfirmation bias) เป็นความเอนเอียงซึ่งพบในงานทดลองหลายงาน[26]

นักวิจัยสามารถใช้เครื่อง MRI เพื่อตรวจดูว่า สมองมนุษย์มีปฏิกิริยาต่อข้อมูลที่ไม่น่าปรารถนาได้อย่างไร

มีการทำอีกงานวิจัยหนึ่งเกี่ยวกับการตีความหมายแบบบเอนเอียงในระหว่างการเลือกตั้งประธานาธิบดีสหรัฐอเมริกา ค.ศ. 2004 ซึ่งทดสอบผู้ร่วมการทดลองผู้รายงานว่ามีความเห็นที่ชัดเจนเกี่ยวกับผู้สมัครรับเลือกตั้ง ผู้ร่วมการทดลองได้รับข้อมูลคำแถลงเป็นคู่ ๆ ที่ขัดแย้งกัน จากผู้สมัครรับเลือกตั้งพรรคริพับลิกัน นายจอร์จ ดับเบิลยู. บุช และจากผู้สมัครรับเลือกตั้งพรรคเดโมแครต นายจอห์น เคอร์รี่ หรือจากคนมีชื่อเสียงอื่นที่เป็นกลางทางการเมือง นอกจากนั้น มีการให้คำแถลงอื่น ๆ ที่ทำให้ข้อมูลที่ขัดแย้งกันดูเหมือนมีเหตุผล จากข้อมูล 3 อย่างเหล่านี้ ผู้ร่วมการทดลองต้องตัดสินใจว่า คำพูดของแต่ละคนขัดแย้งกันเองหรือไม่[27]:1948 มีความแตกต่างกันอย่างสำคัญในข้อตัดสินของผู้ร่วมการทดลอง คือมีโอกาสมากกว่าที่จะตีความหมายของคำพูดจากผู้สมัครรับเลือกตั้งที่ตนคัดค้านว่าขัดแย้งกันเอง[27]:1951

ในการทดลองนี้ ผู้ร่วมการทดลองทำการตัดสินใจเมื่ออยู่ในเครื่อง MRI ซึ่งตรวจดูการทำงานในสมอง เมื่อผู้ร่วมการทดลองกำลังประเมินคำพูดที่ขัดแย้งกันของผู้สมัครรับเลือกตั้งที่ตนสนับสนุน ศูนย์อารมณ์ในสมองจะเกิดการเร้า แต่จะไม่มีการเร้าเมื่อกำลังประเมินคำพูดของผู้สมัครรับเลือกตั้งที่ตนคัดค้าน ผู้ทำงานวิจัยอนุมานผลนี้ว่า ปฏิกิริยาที่แตกต่างกันต่อคำพูดที่ขัดแย้งกันไม่ได้เกิดจากความผิดพลาดในการคิดหาเหตุผลอย่าง passive แต่ว่า ผู้ร่วมการทดลองต้องทำการลดระดับความขัดแย้งกันทางปริชาน (cognitive dissonance) ที่เกิดจากการรับรู้พฤติกรรมที่ไม่สมเหตุสมผลหรือหน้าไหว้หลังหลอกของผู้สมัครรับเลือกตั้งที่ตนสนับสนุนอย่างแอ๊กถีฟ

ความเอนเอียงในการตีความหมายเกี่ยวกับความเชื่อนั้นฝังแน่น ไม่ว่าจะฉลาดแค่ไหน ในการทดลองหนึ่ง ผู้ร่วมการทดลองทำข้อทดสอบของ SAT (ซึ่งเป็นการสอบเอ็นทร้านซ์เข้ามหาวิทยาลัยใช้ในประเทศสหรัฐอเมริกา) เพื่อตรวจสอบสติปัญญา หลังจากนั้น ก็ให้อ่านข้อมูลเกี่ยวกับความปลอดภัยของรถโดยสาร ที่นักวิจัยจะกุข้อมูลเกี่ยวประเทศกำเนิดของรถ ผู้ร่วมการทดลองชาวอเมริกันต้องให้คะแนนเป็น 6 แต้มว่ารถคันนั้นควรห้ามไม่ให้ใช้หรือไม่ โดย 1 คะแนนเป็นการ "ห้ามเด็ดขาด" และ 6 เป็นการ "ไม่ห้ามเด็ดขาด" ผู้ร่วมการทดลองต้องประเมินว่าจะให้ใช้รถเยอรมันอันตรายในถนนคนอเมริกัน และรถอเมริกันอันตรายในถนนคนเยอรมันหรือไม่ ปรากฏว่า ผู้ร่วมการทดลองเชื่อว่า ควรห้ามรถเยอรมันอันตรายในถนนคนอเมริกัน อย่างรวดเร็วกว่าควรห้ามรถอเมริกันอันตรายในถนนคนเยอรมัน และไม่ปรากฏว่าระดับสติปัญญามีผลต่อคำตอบของผู้ร่วมการทดลอง[20]

การตีความหมายแบบเอนเอียงไม่ได้จำกัดอยู่ในประเด็นที่ทำให้เกิดอารมณ์เพียงเท่านั้น ในอีกการทดลองหนึ่ง ผู้วิจัยบอกผู้ร่วมการทดลองเกี่ยวกับการลักขโมยเหตุการณ์หนึ่ง ผู้ร่วมการทดลองต้องกำหนดความสำคัญทางหลักฐานของข้อความที่เสนอว่า บุคคลหนึ่งเป็นขโมยหรือไม่ใช่ เมื่อผู้ร่วมการทดลองสันนิษฐานว่า บุคคลหนึ่งเป็นผู้มีความผิด ก็จะกำหนดข้อความที่สนับสนุนข้อสันนิษฐานของตนว่ามีความสำคัญมากกว่าข้อความที่แสดงความขัดแย้ง[28]

ความทรงจำที่เอนเอียง[แก้]

แม้ว่า บุคคลหนึ่งอาจจะสั่งสมและตีความหมายหลักฐานโดยความเป็นกลาง แต่ก็อาจจะเลือกระลึกถึงหลักฐานเหล่านั้นเพื่อที่จะส่งเสริมความคิดเห็นฝ่ายตน[29] ปรากฏการณ์นี้เรียกว่า selective recall (หมายความว่า ความจำเลือกสรร) ทฤษฎีทางจิตวิทยาต่าง ๆ มีพยากรณ์ที่แตกต่างกันในเรื่องความจำเลือกสรร Schema theory พยากรณ์ว่า ข้อมูลที่ตรงกับความคาดหมายที่มีมาก่อนจะสามารถจำและระลึกได้ดีกว่าข้อมูลที่ไม่ตรงกัน[30] ส่วนทฤษฎีอื่นบอกว่า ข้อมูลที่ทำให้ประหลาดใจจะเด่นกว่าและดังนั้นจึงจำได้ดีกว่า[30] คำพยากรณ์จากทั้งสองทฤษฎีที่กล่าวมานั้นได้รับการยืนยันจากการทดลองที่มีรูปแบบที่ต่างกัน ดังนั้นจึงไม่ปรากฏทฤษฎีที่ชนะโดยเด็ดขาด[31]

ในอีกงานวิจัยหนึ่ง ผู้ร่วมการทดลองอ่านข้อความแสดงลักษณะของหญิงคนหนึ่งเป็นพฤติกรรมทั้งแบบเปิดเผยและเก็บตัว[32] หลังจากนั้น ก็จะต้องระลึกถึงตัวอย่างของความเป็นผู้เปิดเผยและความเป็นผู้เก็บตัว ผู้ร่วมการทดลองกลุ่มหนึ่งต้องประเมินหญิงนั้นสำหรับงานเป็นบรรณารักษ์ (ซึ่งปกติเชื่อกันว่าต้องเป็นคนเก็บตัว) ในขณะที่กลุ่มที่สองต้องประเมินหญิงนั้นเพื่องานเป็นนายหน้าขายที่ดิน (ซึ่งปกติเชื่อกันว่าต้องเป็นคนเปิดเผย) สิ่งที่คนสองกลุ่มนี้ระลึกได้แตกต่างกันอย่างสำคัญ คือ กลุ่มบรรณารักษ์ระลึกถึงตัวอย่างที่แสดงความเป็นคนไม่เปิดเผยได้มากกว่า ในขณะที่กลุ่มนายหน้าระลึกถึงตัวอย่างที่แสดงความเป็นคนเปิดเผยได้มากกว่า[32]

ผลของความจำเลือกสรรก็ปรากฏด้วยในงานทดลองต่าง ๆ ที่มีการกุความน่าปรารถนาของบุคลิกประเภทต่าง ๆ[30][33] ในงานทดลองหนึ่ง มีการแสดงหลักฐานกับผู้ร่วมการทดลองกลุ่มหนึ่งว่า ผู้มีบุคลิกเปิดเผยมีความสำเร็จในชีวิตมากกว่า ส่วนอีกกลุ่มหนึ่งมีการแสดงข้อมูลตรงกันข้าม ในงานทดลองต่อมาอีกงานหนึ่งซึ่งไม่ทำเชื่อมต่อกัน มีการให้ผู้ร่วมการทดลองระลึกถึงเหตุการณ์ในชีวิตที่ตนแสดงพฤติกรรมเปิดเผยหรือเก็บตน ผู้ร่วมการทดลองในแต่ละกลุ่มระลึกถึงเหตุการณ์ที่เชื่อมตนเองกับบุคลิกภาพที่น่าปรารถนาได้มากกว่า และระลึกถึงเหตุการณ์เหล่านั้นได้เร็วกว่า[34]

การประเมินถึงเหตุการณ์ที่เปลี่ยนไปสามารถมีผลต่อความทรงจำ[35] มีการให้ผู้ร่วมการทดลองลงคะแนนว่า ตนได้รู้สึกอย่างไรเมื่อรู้เป็นครั้งแรกว่า โอเจ ซิมป์สัน (อดีตนักกีฬาอเมริกันฟุตบอลชื่อดังผู้ถูกกล่าวหาว่าฆ่าภรรยาของตน) ได้รับการตัดสินว่าไม่ผิดในข้อหาฆาตกรรม[35] ผู้ร่วมการทดลองได้พรรณนาถึงความรู้สึกและความมั่นใจของตนในข้อตัดสินในช่วงหนึ่งอาทิตย์ สองเดือน และหนึ่งปีหลังจากการตัดสินคดี ผลแสดงว่า การประเมินความผิดผู้ต้องหาของผู้ร่วมการทดลองเปลี่ยนไปตามเวลา และถ้าความคิดเห็นของผู้ร่วมการทดลองยิ่งเปลี่ยนไปเท่าไร ความทรงจำของของผู้ร่วมการทดลองเกี่ยวกับความรู้สึกที่มีในเบื้องต้นก็จะไม่มีเสถียรภาพยิ่งขึ้นเท่านั้น เมื่อผู้ร่วมการทดลองระลึกถึงปฏิกิริยาทางอารมณ์ที่เกิดขึ้นที่สองเดือนและที่หนึ่งปีให้หลัง ความทรงจำว่ามีความรู้สึกอย่างไรในอดีต ก็จะขึ้นอยู่กับการประเมินเหตุการณ์นั้น ๆ ในปัจจุบัน[35] มนุษย์แสดงความลำเอียงเพื่อยืนยันเมื่อกล่าวถึงความคิดเห็นฝ่ายตนในประเด็นที่มีความเห็นขัดแย้งกัน[20]

ความเปลี่ยนแปลงทางอารมณ์ความรู้สึกสามารถมีผลต่อความทรงจำ[36] ในการทดลองหนึ่ง มีการให้พ่อหม้ายและแม่หม้ายให้คะแนนความรู้สึกเศร้าหกเดือนและห้าปีหลังจากการเสียชีวิตของคู่ครอง ผู้ร่วมการทดลองบอกว่า มีความรู้สึกเศร้าที่ช่วงหกเดือนในระดับที่สูงกว่าช่วงห้าปี แต่ว่า เมื่อถามผู้ร่วมการทดลองหลังห้าปีไปแล้วว่า มีความรู้สึกอย่างไรหกเดือนหลังจากการเสียชีวิตของคู่ครอง การให้คะแนนระดับความรู้สึกเศร้าที่ระลึกได้มีสหสัมพันธ์ในระดับสูงกับความรู้สึกปัจจุบัน คือ มนุษย์ดูเหมือนจะใช้อารมณ์ความรู้สึกปัจจุบันเพื่อวิเคราะห์ว่าตนรู้สึกอย่างไรในอดีต[35] นั่นก็คือ ความทรงจำในอดีตที่ประกอบด้วยอารมณ์เกิดการสร้างขึ้นใหม่อาศัยอารมณ์ความรู้สึกในปัจจุบัน

งานวิจัยหนึ่งอธิบายว่า ความจำเลือกสรรสามารถดำรงรักษาความเชื่อในการรับรู้นอกเหนือประสาทสัมผัส (extrasensory perception ตัวย่อ ESP) เช่นการอ่านใจของผู้อื่นได้[37] คือ มีการแสดงคำพรรณนาถึงการทดลองเกี่ยวกับ ESP ให้ทั้งคนเชื่อและไม่เชื่อ มีการบอกคนกึ่งหนึ่งของแต่ละกลุ่มว่า มีผลการทดลองที่สนับสนุนว่า ESP นั้นมีจริง และบอกอีกกึ่งหนึ่งว่า ผลการทดลองไม่สนับสนุนความมีอยู่ของ ESP เมื่อสอบถามผู้ร่วมการทดลองภายหลัง ผู้ร่วมการทดลองโดยมากสามารถระลึกถึงข้อมูลที่ได้รับอย่างแม่นยำ ยกเว้นคนเชื่อที่อ่านข้อมูลที่ไม่สนับสนุน ผู้ร่วมการทดลองกลุ่มนี้ระลึกถึงข้อมูลได้น้อยกว่ากลุ่มอื่น และบางคนแถมจำผิดอีกด้วยว่า ข้อมูลการทดลองสนับสนุน ESP (ตรงกับความเชื่อของตนว่า ESP มีจริง)[37]

ปรากฏการณ์ที่เกี่ยวข้องกัน[แก้]

ความเห็นที่สุดโต่งเพิ่มขึ้น[แก้]

เมื่อกลุ่มบุคคลที่มีความเห็นตรงกันข้ามกันตีความหมายข้อมูลหลักฐานใหม่ ๆ โดยมีความเอนเอียง ความเห็นของกลุ่มคนเหล่านั้นสามารถเกิดความต่างที่ห่างกันยิ่งขึ้น นี้เรียกว่า "attitude polarization" (หมายความว่า ความเห็นที่สุดโต่งเพิ่มขึ้น)[38] ปรากฏการณ์นี้เห็นได้โดยการทดลองที่เอาลูกบอลสีแดงและดำมาจากถุงหนึ่งหรือสองถุงที่ซ่อนอยู่ ผู้ร่วมการทดลองรู้ว่า ถุงหนึ่งมีลูกบอลสีดำ 60% สีแดง 40% และอีกถุงหนึ่งสีดำ 40% สีแดง 60% นักวิจัยได้ทำการตรวจดูว่าอะไรจะเกิดขึ้นถ้าเอาลูกบอลมีสีสลับกันออกมา ซึ่งเป็นลำดับการเอาออกมาที่ไม่ให้สามารถระบุถุงใดถุงหนึ่งได้ หลังจากที่เอาลูกบอลแต่ละลูกออกมา ให้ผู้ร่วมการทดลองในแต่ละกลุ่มบอกทางวาจาว่า ตนคิดว่ามีความเป็นไปได้เท่าไรที่ลูกบอลเหล่านี้ได้นำออกมาจากถุงใดถุงหนึ่ง ผู้ร่วมการทดลองมักจะเกิดความมั่นใจเพิ่มขึ้นเรื่อย ๆ เมื่อเอาลูกบอลแต่ละลูกออกมาก ไม่ว่าตอนแรกตนจะคิดว่ากำลังดึงลูกบอลออกมาจากถุงที่มีสีดำ 60% หรือสีแดง 60% ความน่าจะเป็นที่ผู้ร่วมการทดลองประเมินจะเพิ่มขึ้นเรื่อย ๆ ส่วนในผู้ร่วมการทดลองอีกกลุ่มหนึ่ง นักวิจัยให้ประเมินค่าความน่าจะเป็นหลังจากเอาลูกบอลออกมาหมดชุดแล้วเท่านั้น ไม่ใช่ประเมินหลังจากเอาลูกบอลแต่ละลูกออกมาเหมือนกลุ่มแรก กลุ่มนี้ไม่เกิดปรากฏการณ์ความเห็นที่สุดโต่งเพิ่มขึ้น ซึ่งบอกเป็นนัยว่าปรากฏการณ์นี้ไม่ใช่เกิดขึ้นเพราะว่าคนสองพวกมีความเชื่อที่ขัดแย้งกันเท่านั้น แต่ว่าเกิดขึ้นเมื่อตนได้แสดงออกมาแล้วว่าตนเป็นพวกไหน[39]

ปืนพก 8 กระบอกบนพื้น
ความเห็นที่ชัดเจนเช่นในเรื่องของการมีปืนอาจะทำให้เกิดการตีความหมายข้อมูลใหม่ ๆ อย่างเอนเอียง

การทดลองในแนวนี้ที่เป็นรูปธรรมมากกว่าก็คือการทดลองตีความหมายของมหาวิทยาลัยสแตนฟอร์ด ที่ผู้ร่วมการทดลองผู้มีความเห็นที่ชัดเจนเกี่ยวการลงโทษประหารอ่านข้อความเกี่ยวกับข้อมูลหลักฐานการทดลองที่ผสมผเสกัน ผู้ร่วมการทดลอง 23% รายงานว่า ความเห็นของตนนั้นยิ่งมั่นคงเพิ่มขึ้น และความเปลี่ยนแปลงที่ผู้ร่วมการทดลองรายงานเองเช่นนี้ มีสหสัมพันธ์ที่ชัดเจนกับความเชื่อในเบื้องต้น (คือยิ่งมีความเห็นเบื้องต้นที่ชัดเจนเท่าไร ระดับการเปลี่ยนแปลงความเห็นที่เพิ่มความมั่นคงก็มีมากขึ้นเท่านั้น)[23] ในงานวิจัยต่อ ๆ มา ผู้ร่วมการทดลองก็รายงานด้วยว่า ความเห็นของตนมั่นคงเพิ่มขึ้นแม้ว่าจะได้ข้อมูลที่ไม่ชัดเจน แต่ว่า การเปรียบเทียบความคิดเห็นโดยบททดสอบ (ที่เป็นปรวิสัย) ก่อนและหลังการรับข้อมูลใหม่ ไม่ได้แสดงความเปลี่ยนแปลงเป็นนัยสำคัญ ซึ่งบอกเป็นนัยว่า การเปลี่ยนแปลงที่เจ้าตัวรายงาน (ที่เป็นอัตวิสัย) อาจไม่ได้มีจริง ๆ[26][38][40]

โดยใช้ข้อมูลจากการทดลองเหล่านี้ ดีนนา คุห์น และโจเซ็ฟ ลาว สรุปว่า ความเห็นที่สุดโต่งเพิ่มขึ้นเป็นปรากฏการณ์ที่มีจริง ๆ แต่ไม่ใช่เป็นสิ่งที่ต้องเกิดขึ้นคือเลี่ยงไม่ได้ เพราะว่า เกิดขึ้นในสถานการณ์ที่มีจำนวนน้อย พวกเขาพบว่า มันเกิดขึ้นไม่ได้มีเหตุจากการรับหลักฐานใหม่ แต่เกิดจากเพียงแค่คิดถึงประเด็นนั้นเท่านั้น[38]

ชาลส์ เทเบอร์ และมิลตัน ล็อดจ์ เสนอว่า ผลของมหาวิทยาลัยสแตนฟอร์ดทำซ้ำได้ยาก เพราะว่าประเด็นที่ใช้ในการทดลองที่ทำภายหลังมีลักษณะเป็นนามธรรมมากเกิดไป หรือว่า เป็นเรื่องสับสนมากเกินไปกว่าที่จะให้เกิดปฏิกิริยาทางอารมณ์ ดังนั้น งานวิจัยของเทเบอร์และล็อดจ์จึงใช้ประเด็นที่ก่อให้เกิดอารมณ์คือเรื่องกฎหมายควบคุมการมีปืน และเรื่องการยืนยันสิทธิประโยชน์ของคนบางพวก (affirmative action)[26] พวกเขาวัดทัศนคติของผู้ร่วมการทดลองเกี่ยวกับประเด็นเหล่านี้ก่อนและหลังการอ่านข้อโต้แย้งจากทั้งสองฝ่าย มีกลุ่มผู้ร่วมการทดลอง 2 กลุ่มที่เกิดความเห็นที่สุดโต่งเพิ่มขึ้น คือพวกที่มีความคิดเห็นที่มั่นคงมาก่อน และบุคคลที่มีความรู้ด้านการเมือง ในส่วนหนึ่งของงานวิจัยนี้ ผู้ร่วมการทดลองสามารถเลือกแหล่งกำนิดของหลักฐานที่จะอ่าน จากรายการที่นักวิจัยเป็นคนเตรียมขึ้น ยกตัวอย่างเช่น สามารถเลือกที่จะอ่านข้อมูลหลักฐานของสมาคมไรเฟิลแห่งชาติ (สหรัฐอเมริกา ซึ่งต่อต้านกฎหมายควบคุมการมีปืน) หรือของคณะต่อต้านปืนพกเบรดี (ซึ่งสนับสนุนกฎหมายควบคุม) แม้ว่าจะได้รับคำสั่งว่าให้มีใจเป็นกลาง ผู้ร่วมการทดลองมักจะอ่านหลักฐานข้อมูลที่สนับสนุนทัศนคติที่ตนมีอยู่มากกว่าที่คัดค้าน การแสวงหาข้อมูลที่มีความเอนเอียงเช่นนี้มีสหสัมพันธ์สูงกับความเห็นที่สุดโต่งเพิ่มขึ้น[26]

ปรากฏการณ์ผลตรงกันข้าม (backfire effect) เป็นชื่อของปรากฏการณ์ที่เมื่อได้รับหลักฐานที่คัดค้านความเชื่อฝ่ายตน มนุษย์กลับปฏิเสธหลักฐานนั้นแล้วตั้งมั่นอยู่ในความเชื่อนั้นเพิ่มขึ้น[41][42]

ความอยู่ยงคงกระพันของความเชื่อที่ถูกหักล้างแล้ว[แก้]

"ความเชื่อสามารถอยู่รอดพ้นจากเหตุผลทางตรรกะและทางหลักฐานได้ สามารถจะอยู่รอดพ้นและอาจจะเพิ่มความแข็งแกร่งเพิ่มขึ้นแม้มีหลักฐานที่คนอื่นที่เป็นกลางจะต้องกล่าวว่า เป็นเหตุผลพอเพียงที่จะลดความเชื่อนั้นลง สามารถจะอยู่รอดได้แม้หลักฐานที่เป็นที่ตั้งของความเชื่อนั้นจะถูกทำลายอย่างสิ้นเชิง"

—ลี รอส และเครก แอนเดอร์สัน[43]

ความลำเอียงเพื่อยืนยันสามารถใช้อธิบายว่าทำไมความเชื่อบางอย่างสามารถที่จะอยู่รอดได้แม้ว่าหลักฐานที่เป็นที่ตั้งถูกหักล้างหมดแล้ว[44] ความอยู่ยงคงกระพันของความเชื่อได้รับการแสดงในการทดลองเป็นชุด ๆ ใช้วิธีที่เรียกว่าการเปิดเผยหลังเหตุการณ์ (debriefing paradigm) คือ จะให้ผู้ร่วมการทดลองอ่านหลักฐานปลอมของสมมุติฐานหนึ่ง ๆ หลังจากนั้น ความเปลี่ยนแปลงทางทัศนคติจะได้รับการวัด ต่อจากนั้น ก็จะแสดงอย่างละเอียดว่าหลักฐานนั้นเป็นเรื่องปลอมแปลง จากนั้น ทัศนคติของผู้ร่วมการทดลองก็จะได้รับการวัดอีกครั้งหนึ่งเพื่อเช็คดูว่า ความเชื่อในเรื่องนั้นจะกลับไปสู่ระดับเดิมก่อนแสดงหลักฐานปลอมหรือไม่[43]

สิ่งที่พบโดยสามัญก็คือความเชื่อที่เกิดขึ้นเพราะหลักฐานปลอมนั้นไม่หมดไปแม้หลังจากมีการเปิดเผยอย่างละเอียด[45] ในการทดลองหนึ่ง ผู้ร่วมการทดลองต้องแยกแยะระหว่างจดหมายฆ่าตัวตายที่เป็นของจริงและของปลอม ผู้วิจัยให้คะแนนความแม่นยำโดยสุ่ม คือบอกบางคนว่าทำได้ดี และบอกคนอื่นว่าทำได้แย่มาก แม้ว่าหลังจากที่เปิดเผยวิธีการทดลองนี้อย่างละเอียด ผู้ร่วมการทดลองก็ยังอยู่ใต้อิทธิพลของคะแนนที่ให้แบบสุ่มนั้น คือ ยังคิดว่าตนเองเก่งกว่าหรือแย่กว่าคนอื่นโดยเฉลี่ยในการทำงานประเภทนั้น ขึ้นอยู่กับว่านักวิจัยกล่าวว่าได้คะแนนเท่าไร[46]

ในอีกงานวิจัยหนึ่ง ผู้ร่วมการทดลองอ่านเรื่องผลประเมินการทำงานของเจ้าหน้าที่ดับเพลิงสองคน รวมถึงผลข้อทดสอบเกี่ยวกับการเลี่ยงความเสี่ยง[43] ผลการทดลองที่กุขึ้นนี้ แสดงความสัมพันธ์ไม่ลบก็บวก คือ มีการบอกผู้ร่วมการทดลองพวกหนึ่งว่า เจ้าหน้าที่ดับเพลิงที่เสี่ยงอันตรายมีผลงานดีกว่า และบอกอีกพวกหนึ่งว่า เจ้าหน้าที่ดับเพลิงที่เสี่ยงอันตรายมีผลงานด้อยกว่าผู้เลี่ยงความเสี่ยง[47] จริง ๆ แล้ว แม้ถ้าผลประเมินเหล่านี้ไม่ได้เป็นเรื่องที่กุขึ้น แต่หลักฐานที่ให้ก็ไม่ใช่หลักฐานที่ได้มาตรฐานทางวิทยาศาตร์เพื่อจะสรุปประเด็นเกี่ยวกับผลงานของเจ้าหน้าที่ดับเพลิง อย่างไรก็ดี ผู้ร่วมการทดลองกลับเห็นว่าผลประเมินนั้นน่าเชื่อถือ[47]

เมื่อบอกผู้รับการทดลองว่า ผลประเมินเหล่านี้เป็นเรื่องปลอมแปลง ความเชื่อของผู้ร่วมการทดลองเกี่ยวกับความสัมพันธ์ที่ข้อมูลแสดงก็ลดลง แต่ว่า ประมาณครึ่งหนึ่งของผลทางความคิดที่เกิดจากผลประเมินกุนั้นกลับดำรงอยู่ได้[43] การสัมภาษณ์ผู้ร่วมการทดลองหลังจากนั้นแสดงว่า ผู้ร่วมการทดลองเข้าใจถึงเรื่องที่เปิดเผยและเชื่อว่าเป็นความจริง แต่กลับเห็นว่าหลักฐานที่ถูกหักล้างนั้นไม่มีความเกี่ยวข้องกับความเชื่อของตน ๆ (ทั้ง ๆ ที่ความจริงแล้วเหตุผลที่หลักฐานนั้นกุขึ้นมีผลต่อความคิดของผู้ร่วมการทดลอง)[47]

ความชอบใจต่อข้อมูลเบื้องต้น[แก้]

งานทดลองหลายงานพบว่า ข้อมูลต้น ๆ จากข้อมูลเป็นชุด ๆ มีน้ำหนักมากกว่าต่อมนุษย์ แม้ว่าลำดับข้อมูลจะไม่มีความสำคัญ ยกตัวอย่างเช่น บุคคลมักจะมีความประทับใจเชิงบวก กับบุคคลที่กล่าวว่ามีลักษณะ "ฉลาด ขยัน หุนหันพลันแล่น ปากร้าย ดื้อ มักริษยา" มากกว่าบุคคลที่มีลักษณะแบบเดียวกันแต่กล่าวถึงโดยลำดับกลับกัน[48] การให้ความสำคัญในอันดับแรกที่ไร้เหตุผล (irrational primacy effect) เป็นอิสระจากปรากฏการณ์ความสำคัญในลำดับของความทรงจำ (serial position effect) ซึ่งข้อมูลส่วนต้น ๆ ในลำดับสามารถระลึกถึงได้ดีกว่า[48] การตีความหมายแบบเอนเอียงสามารถอธิบายปรากฏการณ์นี้ คือเมื่อเห็นข้อมูลส่วนเบื้องต้น มนุษย์จะตั้งสมมติฐานที่มีผลต่อการตีความหมายข้อมูลที่เหลือ[44]

งานวิจัยที่แสดงการให้ความสำคัญในอันดับแรกที่ไร้เหตุผลใช้ชิปสีที่บอกว่าจะมาจากอ่างสองใบ มีการบอกผู้ร่วมการทดลองว่า ชิปสีต่าง ๆ มีสัดส่วนเท่าไรในอ่างทั้งสอง และผู้ร่วมการทดลองจะต้องประมาณความน่าจะเป็นของชิปที่นำมาจากอ่างใบหนึ่ง[48] แต่จริง ๆ แล้วนักวิจัยแสดงชิปตามลำดับที่จัดไว้แล้ว ชิป 30 อันแรกดูเหมือนจะระบุอ่างใบหนึ่ง และ 30 อันต่อไประบุอ่างอีกใบหนึ่ง[44] โดยรวม ๆ แล้ว ชิปที่นำออกมาทั้งหมดเป็นกลาง ๆ ฉะนั้น โดยเหตุผลแล้ว อาจจะมาจากอ่างทั้งสองใบใดใบหนึ่งก็ได้ แต่หลังจากการแสดงชิป 60 อัน ผู้ร่วมการทดลองชอบใจอ่างที่ชิป 30 อันแรกดูเหมือนจะระบุ[48]

อีกการทดลองหนึ่งแสดงภาพสไลด์ชุดของวัตถุหนึ่ง ที่เป็นภาพมัวไม่ชัดตอนต้น ๆ และชัดขึ้นเรื่อย ๆ ในภาพต่อ ๆ มา[48] หลังจากแสดงแต่ละภาพ ผู้ร่วมการทดลองต้องเดาว่าวัตถุนั้นคืออะไร ผู้ร่วมการทดลองที่เดาผิดตอนต้น ๆ กลับเดาเหมือนกันต่อไปเรื่อย ๆ แม้ว่า ภาพจะชัดจนกระทั่งคนอื่นสามารถบอกได้โดยง่ายว่าวัตถุนั้นคืออะไร[44]

ความสัมพันธ์ลวงระหว่างเหตุการณ์ต่าง ๆ[แก้]

สหสัมพันธ์ลวง (Illusory correlation) เป็นความโน้มน้าวที่จะเห็นความสัมพันธ์ที่ไม่มีจริง ๆ ในเซตข้อมูล[49] ความโน้มน้าวอย่างนี้ได้มีการแสดงเป็นครั้งแรกในชุดการทดลองในปลายคริสต์ทศวรรษ 1960[50] ในงานทดลองหนึ่ง ผู้ร่วมการทดลองอ่านเค้สทางจิตเวชชุดหนึ่ง รวมทั้งปฏิกิริยาต่อ Rorschach inkblot test[D] ผู้ร่วมการทดลองสรุปว่า ชายรักร่วมเพศในเค้สเหล่านั้นมีโอกาสสูงกว่าที่จะเห็นก้น รูทวารหนัก หรือรูปคลุมเครือทางเพศต่าง ๆ ในรูปหมึกจุดเหล่านั้น แต่ว่าจริง ๆ แล้วเค้สเหล่านั้นเป็นเรื่องกุขึ้น แถมในการทดลองหนึ่ง เค้สเหล่านั้นกุขึ้นโดยที่ชายรักร่วมเพศมีโอกาสน้อยกว่าที่จะเห็นภาพเป็นอย่างนั้น[49] ในการสำรวจอีกงานหนึ่ง (ที่ไม่มีการให้อ่านเค้สต่าง ๆ ที่กุขึ้น) นักจิตวิทยามีประสบการณ์สูงกลุ่มหนึ่งถึงกับรายงานความสัมพันธ์เทียมแบบนี้กับคนรักร่วมเพศ แม้ว่าความสัมพันธ์แบบนี้ไม่มีจริง ๆ[49][50]

ตัวอย่างของ Rorschach inkblot test

งานวิจัยอีกงานหนึ่งบันทึกอาการของคนไข้ข้ออักเสบและสภาพภูมิอากาศในช่วงเวลา 15 เดือน คนไข้เกือบทั้งหมดรายงานว่า ความเจ็บปวดของตนมีความสัมพันธ์กับสภาพภูมิอากาศ ทั้งที่จริง ๆ แล้วระดับสหสัมพันธ์อยู่ที่ศูนย์[51]

ปรากฏการณ์นี้เป็นรูปแบบหนึ่งของการตีความหมายแบบเอนเอียง คือตีความหมายหลักฐานที่เป็นกลาง ๆ หรือมีผลลบว่าสนับสนุน (คือมีผลบวก) กับความเชื่อที่มีอยู่ของตน และมีความเกี่ยวข้องกับความเอนเอียงแบบอื่น ๆ ในการทดสอบสมมติฐาน[52]

ในการตัดสินว่าเหตุการณ์สองอย่าง เช่นความเจ็บป่วยและอากาศที่ไม่ดี มีความสัมพันธ์กันหรือไม่ มนุษย์มักให้น้ำหนักกับหลักฐานเชิงบวก ซึ่งในตัวอย่างที่ผ่านมานี้ เป็นความเจ็บปวดและอากาศที่ไม่ดี แต่ไม่ใส่ใจสังเกตการณ์อย่างอื่น ๆ (เช่นไม่เจ็บในวันที่อากาศไม่ดี หรือเจ็บในวันที่อากาศดี)[53] นี้มีความคล้ายกันกับการให้น้ำหนักกับการตรวจสอบสมมติฐานเชิงบวก[52] นี่อาจจะเกี่ยวข้องกับความจำเลือกสรรอีกด้วย คือ มนุษย์อาจจะมีความรู้สึกว่าเหตุการณ์ต่าง ๆ มีความสัมพันธ์กันเพราะว่าง่ายที่จะระลึกถึงวันที่เหตุการณ์ทั้งสองอย่างเกิดขึ้นพร้อม ๆ กัน[52]

ตัวอย่าง
จำนวนวัน มีฝน ไม่มี
มีอาการข้ออักเสบ 14 6
ไม่มี 7 2

ในตัวอย่างข้างบน ความจริงแล้ว อาการข้ออักเสบเกิดขึ้นบ่อยกว่าในวันที่ไม่มีฝน (คือใน 8 วันที่ไม่มีฝน มี 6 วันมีอาการข้ออักเสบเป็นอัตราส่วน 75%) แต่ว่า เรามักจะให้ความสนใจกับจำนวนวันที่สูงโดยเปรียบเทียบที่มีทั้งฝนตกและเกิดอาการ (แต่มีอาการเพียงแค่ 67% ของวันที่ฝนตก) โดยไปใส่ใจเพียงแค่ช่องเดียวในตารางแทนที่จะใส่ใจในช่องทั้ง 4 เราสามารถสร้างความสัมพันธ์ผิด ๆ ซึ่งในกรณีนี้ เป็นการสัมพันธ์วันที่ฝนตกกับวันที่มีอาการข้ออักเสบ[54]

ความแตกต่างระหว่างบุคคล[แก้]

ในอดีตเคยเชื่อกันว่า ความเอนเอียงเพื่อยืนยันมีความสัมพันธ์เชิงผกผันกับสติปัญญาที่สูงกว่า แต่ว่า งานวิจัยต่าง ๆ กลับพบว่า ทักษะในการคิดอย่างมีเหตุผลมีอิทธิพลต่อความเอนเอียงมากกว่าระดับสติปัญญา[55] ความเอนเอียงนี้อาจเป็นเหตุให้ไม่สามารถทำการประเมินแนวคิดตรงกันข้ามอย่างมีประสิทธิภาพและประกอบด้วยเหตุผล งานวิจัยต่าง ๆ เสนอว่า ความเอนเอียงนี้เป็นความปราศจาก "การเปิดใจกว้าง" ซึ่งหมายถึงการเสาะหาอย่างจริง ๆ จัง ๆ ว่า แนวคิดเบื้องต้นนั้นอาจจะผิดพลาดได้[56] โดยทั่ว ๆ ไปแล้ว ความเอนเอียงนี้เกิดขึ้นในการศึกษาเชิงประสบการณ์ โดยเป็นการใช้หลักฐานสนับสนุนความคิดของตนเป็นจำนวนมากกว่าหลักฐานที่คัดค้าน[57]

งานวิจัยหนึ่งพบความแตกต่างระหว่างบุคคลเกี่ยวกับความเอนเอียงนี้ โดยตรวจสอบความแตกต่างระหว่างบุคคลที่เกิดขึ้นจากการเรียนรู้ในวัฒนธรรม ซึ่งเป็นความแตกต่างที่เปลี่ยนไปได้ นักวิจัยพบความแตกต่างกันที่สำคัญในระหว่างบุคคลเกี่ยวกับความสามารถในการโต้แย้ง (วิธีการให้เหตุผล) งานวิจัยต่าง ๆ เสนอว่า ความแตกต่างในระหว่างบุคคลเช่น ความสามารถในการหาเหตุผลเชิงนิรนัย (deductive) ความสามารถในการเอาชนะความเอนเอียงเพราะความเชื่อ ความเข้าใจทางญาณวิทยา (เกี่ยวกับความรู้และฐานของความรู้เป็นต้น) และอัธยาศัยในการคิด เป็นตัวพยากรณ์สำคัญในการคิดหาเหตุผลและอ้างเหตุผล ในการโต้ตอบด้วยเหตุผล (counterargument) และในการพิสูจน์ความไม่จริง (rebuttal)[58][59][60]

งานวิจัยโดยคริสโตเฟอร์ วูลฟ์ และแอนน์ บริตต์ ตรวจสอบว่า ความเห็นของผู้รับการตรวจสอบว่า "อะไรเป็นวิธีการโต้แย้งที่ดี" สามารถเป็นต้นกำเนิดของความเอนเอียงเพื่อยืนยัน ที่มีอิทธิพลต่อวิธีที่เราสร้างคำโต้แย้ง[57] คือ งานวิจัยตรวจสอบความแตกต่างของวิธีการโต้แย้งระหว่างบุคคลและกำหนดให้ผู้รับการทดลองเขียนบทความ โดยมีการจัดโดยสุ่มให้ผู้ร่วมการทดลองเขียนบทความสนับสนุนหรือคัดค้านข้อโต้แย้งฝ่ายตน โดยมีกำหนดให้เขียนบทความที่สมดุลหรือไม่มีกำหนด คือคำสั่งสมดุลบอกให้ผู้ร่วมการทดลองเขียนข้อโต้แย้งที่สมดุลที่กล่าวถึงทั้งข้อความที่สนับสนุนและข้อความที่คัดค้าน และคำสั่งไม่มีกำหนดไม่กำหนดว่าควรจะเขียนข้อโต้แย้งอย่างไร

โดยรวม ๆ แล้ว ผลแสดงว่า คำสั่งสมดุลเพิ่มการใช้ข้อมูลคัดค้านในข้อโต้แย้งของผู้ร่วมการทดลองอย่างมีนัยสำคัญ นอกจากนั้นแล้ว ข้อมูลงานวิจัยยังแสดงว่า ความเชื่อส่วนตัวไม่ใช่แหล่งกำเนิดของความลำเอียงเพื่อยืนยัน คือ ผู้ร่วมการทดลองที่เชื่อคำพูดว่า ข้อโต้แย้งที่ดีต้องมีฐานจากความจริง มักจะปรากฏความเอนเอียงนี้มากกว่าผู้ที่ไม่เห็นด้วยกับคำพูดนี้ หลักฐานนี้สอดคล้องกับข้อเสนอในบทความของบารอนว่า ความเห็นในเรื่องการหาเหตุผลที่ดีมีอิทธิพลต่อการสร้างคำโต้แย้ง[ต้องการอ้างอิง]

ประวัติ[แก้]

รูปวาดของฟรานซิส เบคอน

ข้อสังเกตในยุคต้น ๆ[แก้]

ก่อนที่จะมีการศึกษาทางจิตวิทยาในเรื่องความลำเอียงเพื่อยืนยัน มีนักเขียนหลายท่านที่ได้สังเกตเห็นปรากฏการณ์นี้รวมทั้งนักประวัติศาสตร์ชาวกรีกทิวซิดิดีส (ค.ศ. 460 BC – 395 BC), กวีชาวอิตาเลียนดันเต อาลีกีเอรี (ค.ศ. 1265–1321), นักปราชญ์และนักวิทยาศาสตร์ชาวอังกฤษฟรานซิส เบคอน (ค.ศ. 1561–1626),[61] และนักเขียนชาวรัสเซียเลโอ ตอลสตอย (ค.ศ. 1828–1910) ทิวซิดิดีสเขียนในหนังสือสงครามเพโลพอนนีส ว่า "...มันเป็นนิสัยมนุษย์ที่จะวางใจไว้ในความหวังที่ไร้เหตุผลที่ตนต้องการ และใช้เหตุผลเป็นผู้พิพากษาในการผลักไสสิ่งที่ตนไม่ชอบใจออกไป"[62] ในหนังสือดีวีนากอมเมเดีย ทอมัส อไควนัสเตือนดันเตเมื่อพบกันในสวรรค์ว่า "ความเห็น...ที่หุนหันพลันแล่น...มักเอนเอียงไปในข้างที่ผิด หลังจากนั้นความรักใคร่ในความเห็นของตนก็จะมัดและกักตัวความคิดไว้ (ในความเห็นผิดนั้น ๆ)"[63] ส่วนเบคอนเขียนไว้ว่า

ความเข้าใจของมนุษย์เมื่อได้ลงความเห็นแล้ว ก็จะดึงทุกสิ่งทุกอย่างอื่นเพื่อที่จะสนับสนุนและปรับให้เข้ากับความเห็นนั้น และแม้ว่าจะมีหลักฐานมากกว่าโดยทั้งจำนวนและทั้งน้ำหนักของความเห็นด้านตรงกันข้าม แต่ว่า ความเห็นนั้นก็จะถูกมองข้ามหรือดูถูก หรือว่าถูกวางเอาไว้ก่อนหรือปฏิเสธโดยอ้างเหตุผลบางอย่าง[64]

เบคอนกล่าวไว้ว่า การประเมินหลักฐานแบบเอนเอียงนำไปสู่ "ความเชื่อไร้เหตุผลทั้งหมด ไม่ว่าจะเป็นเรื่องโหราศาสตร์ ความฝัน ลาง การตัดสินของพระเจ้า หรือเรื่องที่คล้ายกันอื่น ๆ"[64]

ในบทความชื่อว่า "What Is Art? (อะไรเรียกว่าศิลปะ)" ตอลสตอยได้เขียนไว้ว่า

ผมรู้ว่าคนโดยมาก ไม่ใช่เพียงแต่ผู้ที่คนถือว่าฉลาด แต่แม้แต่ผู้ที่ฉลาดมาก ๆ เป็นผู้สามารถที่จะเข้าใจปัญหาทางวิทยาศาตร์ คณิตศาตร์ และปรัชญาที่ยากที่สุด น้อยครั้งสามารถจะแยกแยะความจริงที่ง่ายที่สุดที่ชัดที่สุด ถ้าการกระทำอย่างนั้นบีบบังคับคนเหล่านั้นให้ต้องยอมรับความผิดพลาดของข้อสรุปที่ตนเป็นคนตั้ง ซึ่งอาจจะตั้งขึ้นด้วยความยากยิ่ง เป็นข้อสรุปที่ตนมีความภูมิใจ ที่ตนสอนให้กับคนอื่น เป็นฐานที่ตนได้สร้างชีวิตของตนขึ้น[65]

งานวิจัยของวาสันเรื่องการทดสอบสมมติฐาน[แก้]

นักจิตวิทยาชาวอังกฤษปีเตอร์ วาสันได้บัญญัติคำว่า confirmation bias ไว้[66] คือในผลงานทดลองที่พิมพ์ในปี ค.ศ. 1960 เขาได้ท้าทายให้ผู้ร่วมการทดลองระบุสูตรที่กำหนดระเบียบของตัวเลขชุดละสาม ในเบื้องต้น เขาบอกว่า (2,4,6) มีระเบียบนี้ หลังจากนั้น ก็ให้ผู้ร่วมการทดลองตั้งเลขสามตัวขึ้นเพื่อให้ผู้ทำการทดลองบอกว่า อยู่ในระเบียบนี้หรือไม่[67][68]

ในขณะที่สูตรจริง ๆ ที่ใช้เป็นสูตรง่าย ๆ ว่า "เป็นลำดับเลขที่เพิ่มขึ้น" ผู้ร่วมการทดลองกลับประสบความยากลำบากอย่างยิ่งในการกำหนดสูตรนั้น และมักจะหาสูตรที่มีความเฉพาะเจาะจงเป็นอย่างยิ่ง เช่น "เลขตัวกลางเป็นค่าเฉลี่ยของเลขต้นและเลขปลาย"[67] ดูเหมือนว่า ผู้ร่วมการทดลองจะทดสอบตัวอย่างในเชิงบวกเท่านั้น คือตั้งเลขสามตัวที่ใช้สูตรที่ตนตั้งขึ้นเป็นสมมติฐาน ยกตัวอย่างเช่น ถ้าคิดว่าสูตรคือ "เลขแต่ละตัวบวกสองจากเลขตัวก่อน" ก็จะให้เลขสามตัวที่เข้ากับสูตรนี้ เช่น (11,13,15) แต่ไม่ให้เลขสามตัวที่ไม่เข้ากัน เช่น (11,12,19)[69]

วาสันเป็นผู้ยอมรับความคิดเรื่อง falsificationism ซึ่งแสดงว่า การทดสอบสมมติฐานทางวิทยาศาสตร์เป็นความพยายามที่จริงจังที่จะพิสูจน์ว่าสมมติฐานนั้นผิด เขาตีความหมายของผลการทดลองนี้ว่า มนุษย์ชอบใจที่จะยืนยันความเห็นฝ่ายตนมากกว่าที่จะพิสูจน์ว่าผิด ดังนั้นจึงบัญญัติคำว่า "confirmation bias (ความเอนเอียงเพื่อยืนยัน)"[E] [70]

วาสันยังใช้ปรากฏการณ์ความเอนเอียงเพื่อยืนยันเพื่ออธิบายผลของการทดลองที่ใช้วิธี Wason selection task (แปลว่า งานเลือกของวาสัน) อีกด้วย[71] ในงานนี้ มีการให้ข้อมูลบางส่วนแก่ผู้ร่วมการทดลองเกี่ยวกับวัตถุจำนวนหนึ่ง และผู้ร่วมการทดลองต้องกำหนดว่า มีข้อมูลอะไรอีกที่ต้องการเพื่อที่จะบอกว่ากฎมีเงื่อนไขเช่น "ถ้า ก ต้องเป็น ข" นั้น ถูกต้อง มีการพบอย่างซ้ำ ๆ กันว่า มนุษย์ไม่สามารถทำงานแบบนี้ได้ดี คือโดยมากแล้ว มักจะไม่สนใจข้อมูลที่อาจจะพิสูจน์กฎนั้นว่าผิด[72][73]

คำวิจารณ์ของเคลย์แมนและฮา[แก้]

ในบทความปี ค.ศ. 1987 โจชัว เคลย์แมน และยังวอนฮา เสนอว่า งานทดลองของวาสันไม่ได้แสดงความเอนเอียงเพื่อยืนยันจริง ๆ แต่ว่าพวกเขาอธิบายผลการทดลองของวาสันว่า มนุษย์มักจะทำการทดลองที่เข้ากับสมมติฐานที่ใช้งานอยู่[74] พวกเขาเรียกวิธีนี้ว่า "กลวิธีทดสอบเชิงบวก" (positive test strategy)[7] ซึ่งเป็นตัวอย่างของวิธีการศึกษาโดยทดลอง (heuristic) ซึ่งเป็นทางลัดในการหาเหตุผลที่ไม่สมบูรณ์แต่ง่ายที่จะทดสอบ[2]

เคลย์แมนและฮาใช้ความน่าจะเป็นแบบเบส์ (Bayesian probability) และทฤษฎีสารสนเทศ (information theory) เป็นมาตรฐานในการทดสอบสมมติฐาน แทนที่หลัก falsificationism ซึ่งต้องพยายามพิสูจน์ว่าสมมติฐานนั้นผิดตามที่วาสันใช้ แต่ว่าตามเคลย์แมนและฮา คำตอบของแต่ละคำถามให้ข้อมูลมากน้อยต่างกัน ขึ้นอยู่กับความคิดความเชื่อที่มีอยู่ก่อน ดังนั้น การทดสอบสมมติฐานทางวิทยาศาสตร์จึงเป็นวิธีการทดสอบที่หวังว่าจะได้ข้อมูลมากที่สุด และการทดสอบเชิงบวกอาจจะให้ความรู้มากหรือน้อยขึ้นอยู่กับความน่าจะเป็นเบื้องต้น เคลย์แมนและฮาเสนอว่า เมื่อเรากำลังขบปัญหาจริง ๆ ในโลก นั่นเป็นการหาคำตอบเฉพาะที่มีความน่าจะเป็นเบื้องต้นต่ำ (คือกฎธรรมชาติหรือคำอธิบายของธรรมชาติเป็นกฎเกณฑ์เฉพาะที่ไม่ได้เป็นกฎเกณฑ์แบบกว้าง ๆ) และในกรณีเช่นนี้ การทดสอบเชิงบวกจะให้ความรู้มากกว่าการทดสอบเชิงลบ (ดูแผนภาพเวนน์ด้านขวา 2 ภาพ)[12]

(แสดงแบบข้อทดสอบที่วาสันใช้) ถ้าสูตรที่สืบหา (T) รวมสูตรที่เป็นสมมติฐาน (H) เข้าไว้ด้วย คือสูตรที่ค้นหากว้างขวางกว่าสมมติฐาน การทดสอบเชิงบวกที่ตรวจสอบดูว่า H ใช่ T หรือไม่ จะไม่สามารถแสดงว่า สมมติฐานนั้นผิดพลาด ตามป้ายและลูกศรจากซ้ายไปขวา (1) ไม่ใช่ T ไม่ใช่ H ไม่สามารถสรุป (2) เป็น T แต่ไม่ใช่ H สรุปได้ว่า T ไม่ใช่ H (3) เป็นทั้ง T เป็นทั้ง H ไม่สามารถสรุป
ถ้าสูตรที่สืบหา (T) มีส่วนเหมือนกับสูตรที่เป็นสมมติฐาน (H) การทดสอบเชิงบวกหรือลบอาจจะสามารถพิสูจน์ว่า H ผิดพลาด ตามป้ายและลูกศรจากซ้ายไปขวา (1) เป็น H แต่ไม่ใช่ T สรุปได้ว่า T ไม่ใช่ H (2) เป็นทั้ง T เป็นทั้ง H ไม่สามารถสรุป (3) ไม่ใช่ H แต่เป็น T สรุปได้ว่า T ไม่ใช่ H (4) ไม่ใช่ T ไม่ใช่ H ไม่สามารถสรุป
เมื่อสูตรที่เป็นสมมติฐาน (H) รวมสูตรที่สืบหา (T) เข้าไว้ด้วย การทดสอบเชิงบวกเป็นวิธีเดียวที่จะพิสูจน์ว่า H ผิดพลาด ตามป้ายและลูกศรจากซ้ายไปขวา (1) ไม่ใช่ T ไม่ใช่ H ไม่สามารถสรุป (2) เป็น H แต่ไม่ใช่ T สรุปได้ว่า T ไม่ใช่ H (3) เป็นทั้ง T เป็นทั้ง H ไม่สามารถสรุป

แต่ว่า ในงานหาสูตรของวาสันซึ่งก็คือ เลขสามตัวที่เพิ่มขึ้นไปตามลำดับ เป็นกฎที่กว้างมาก (คือมีความน่าจะเป็นเบื้องต้นสูง ดูแผนภาพเวนน์ด้านซ้ายสุด) ดังนั้น โอกาสที่การทดสอบเชิงบวกจะให้ความรู้ที่ดีก็มีน้อย เคลย์แมนและฮาสนับสนุนการวิเคราะห์ของตนโดยอ้างงานทดลองที่ใช้ป้าย "DAX" และ "MED" สำหรับสูตรสองสูตรที่ผู้รับการทดลองต้องหา แทนที่ป้าย "เข้ากันกับสูตร" และ "ไม่เข้ากันกับสูตร" ซึ่งเป็นการป้องกันการบอกผู้รับการทดลองเป็นนัยว่า จุดมุ่งหมายก็เพื่อจะเสาะหาสูตร ๆ หนึ่งที่มีความน่าจะเป็นต่ำ ผลปรากฏว่า ผู้รับการทดลองประสบผลสำเร็จดีกว่าในรูปแบบนี้ของการทดลอง[75][76]

เพราะคำวิจารณ์นี้และอื่น ๆ จุดสนใจของงานวิจัยได้เปลี่ยนไปจากการทดสอบเชิงยืนยันและเชิงปฏิเสธ ไปเช็คดูว่า มนุษย์ตรวจสอบสมมติฐานโดยวิธีที่ให้เกิดความรู้ หรือว่าเป็นวิธีที่ไม่ทำให้เกิดความรู้แต่ว่าเป็นการทดสอบเชิงบวก การค้นหาความลำเอียงเพื่อยืนยัน "แท้" เป็นประเด็นทำให้นักจิตวิทยาทำการตรวจสอบปรากฏการณ์ต่าง ๆ เป็นจำนวนมาก เพื่อแสดงกระบวนการประมวลข้อมูลของมนุษย์[77]

คำอธิบาย[แก้]

บ่อยครั้งมีการอธิบายว่าความลำเอียงเพื่อยืนยันเป็นผลของกลยุทธ์อัตโนมัติ ที่ไม่ได้ประกอบด้วยความตั้งใจ และไม่ใช่เป็นการหลอกลวงโดยจงใจ[13][78] ตามนักวิจัยรอเบิรต์ แม็คคูน การประมวลผลแบบเอนเอียงโดยมากเป็นผลของการผสมผเสนกันของกลไกทางประชาน (cognitive) และกลไกเกี่ยวกับแรงจูงใจ (motivation)[79]

คำอธิบายความลำเอียงเพื่อยืนยันโดยกลไกทางประชาน มีฐานจากสมรรถภาพที่จำกัดของมนุษย์ในการทำงานที่ซับซ้อน และการใช้ทางลัดที่เรียกว่าวิธีการศึกษาโดยทดลอง (heuristic) ของมนุษย์[80] ยกตัวอย่างเช่น เราอาจจะตัดสินความน่าเชื่อถือของหลักฐานโดยใช้ availability heuristic คือว่า เราคิดถึงสิ่งนั้นได้โดยง่าย ๆ แค่ไหน[81] และก็เป็นไปได้ด้วยที่ว่า มนุษย์สามารถใส่ใจในความคิดเดียวในช่วงเวลาหนึ่ง ๆ เท่านั้น ดังนั้น จึงยากที่จะทดสอบสมมติฐานหลาย ๆ อย่างไปพร้อม ๆ กัน[82] วิธีการศึกษาโดยทดลองอีกวิธีหนึ่งก็คือ กลยุทธ์ในการทดสอบเชิงบวกที่เคลย์แมนและฮาได้กล่าวถึง ที่มนุษย์ทดสอบสมมติฐานโดยเช็คกรณีที่หวังว่าจะเห็นลักษณะหรือเหตุการณ์ (เกี่ยวข้องกับสมมติฐานนั้น ๆ) การใช้วิธีการศึกษาโดยทดลองเป็นการเลี่ยงการต้องพิจารณาว่า คำถามแต่ละคำถามจะสามารถให้ข้อมูลได้เท่าไร ซึ่งเป็นเรื่องยากหรือเป็นไปไม่ได้ แต่ว่า เพราะว่า ไม่ใช่เป็นวิธีที่ใช้ได้ดีเสมอไป ดังนั้น มนุษย์จึงอาจจะมองข้ามข้อมูลที่คัดค้านความเชื่อฝ่ายตน[12][83]

คำอธิบายโดยกลไกเกี่ยวกับแรงจูงใจเป็นการอธิบายถึงความหวังเกี่ยวกับความเชื่อนั้น ซึ่งบางครั้งเรียกว่า "ความคิดประกอบด้วยความหวัง" (wishful thinking)[84][85] เป็นที่รู้กันว่า มนุษย์ชอบใจความคิดที่ทำให้เกิดความรู้สึกที่ดี มากกว่าความคิดที่ทำให้เกิดความรู้สึกไม่ดี[86] เมื่อใช้กับการโต้แย้งและกับแหล่งกำเนิดหลักฐาน ก็จะสามารถอธิบายได้ว่าทำไมข้อสรุปที่ต้องการจึงมีโอกาสที่จะเกิดความเชื่อถือได้มากกว่า[84] ตามการทดลองที่จัดการเปลี่ยนแปลงความน่าปรารถนาของข้อสรุป มนุษย์มีมาตรฐานในการพิจารณาหลักฐานเกี่ยวกับความคิดที่กลืนไม่ลงที่สูงกว่าความคิดที่น่าชอบใจ[87][88]

แม้ว่า ความสม่ำเสมออาจจะเป็นคุณสมบัติที่น่าต้องการอย่างหนึ่งสำหรับการมีทัศนคติ แต่ว่า แรงผลักดันเพื่อความสม่ำเสมอมากเกินไปอาจจะเป็นแหล่งกำเนิดของความเอนเอียงอีกอย่างหนึ่ง เพราะว่า เป็นสิ่งที่ป้องกันเราไม่ให้วางตัวเป็นกลางในการประเมินข้อมูลใหม่ ๆ ที่ไม่ตรงกับทัศนคตินั้น[84] นักสังคมจิตวิทยาซีวา คุนดา รวมทฤษฎีทางประชานและแรงจูงใจเข้าด้วยกันเพื่ออธิบายความเอนเอียงเพื่อยืนยัน โดยเสนอว่า แรงจูงใจนั้นนำไปสู่ความเอนเอียง แต่มีองค์ทางประชานที่กำหนดขนาดของความเอนเอียงนั้น[89]

ส่วนการอธิบายความเอนเอียงโดยใช้การวิเคราะห์ต้นทุน-ผลกำไร (cost-benefit analysis) ตั้งสมมติฐานว่า มนุษย์ไม่ได้ทดสอบสมมติฐานโดยไม่ได้คิดถึงผลประโยชน์ แต่จะประเมินถึงความเสียหายที่เกิดขึ้นจากความผิดพลาด (ของสมมติฐาน)[90] โดยใช้หลักจิตวิทยาวิวัฒนาการ (evolutionary psychology) เจมส์ ฟรีดริคเสนอว่า มนุษย์ไม่ได้ทดสอบสมมติฐานเพื่อหาความจริง แต่เพื่อจะหลีกเลี่ยงความผิดพลาดที่เกิดความเสียหายมากที่สุด ยกตัวอย่างเช่น ผู้ว่าจ้างอาจจะถามคำถามในแนวทางเดียวในการสัมภาษณ์งาน เพราะว่า ต้องโฟกั๊สในการที่จะกำจัดผู้สมัครที่ไม่เหมาะสมออกไป[91]

ยาคอฟ โทรป และอะกิวา ลีเบอร์แมนพัฒนาทฤษฎีนี้ขึ้นโดยตั้งสมมติฐานว่า เราจะทำการเปรียบเทียบความผิดพลาดสองประเภท คือ การยอมรับสมมติฐานที่ผิด หรือการปฏิเสธสมมติฐานที่ถูก ยกตัวอย่างเช่น คนที่ตั้งค่าความซื่อสัตย์ของเพื่อนต่ำไปอาจจะมีการปฏิบัติกับเพื่อนด้วยความสงสัย ซึ่งเป็นการทำลายมิตรไมตรีนั้น ส่วนการตั้งค่าสูงไปอาจจะเกิดความเสียหาย แต่ก็ไม่เท่ากับตั้งค่าต่ำไป ดังนั้นในกรณีนี้ จึงมีเหตุผลที่จะสืบหา ประเมิน และทรงจำหลักฐานที่แสดงความซื่อสัตย์อย่างมีความเอนเอียง[92]

เมื่อบุคคลหนึ่งปรากฏในเบื้องต้นว่าเป็นคนเปิดเผยหรือเป็นคนเก็บตัว การถามบุคคลนั้นโดยคำถามที่ตรงกับบุคลิก จะปรากฏว่า เป็นการเห็นใจผู้อื่น[93] นี้บอกเป็นนัยว่า เวลาคุยกับคนที่ดูเหมือนกับคนเก็บตัว อาจจะเป็นนิมิตว่ามีทักษะดีทางสังคมถ้าถามบุคคลนั้นว่า "คุณรู้สึกอึดอัดใจเวลาเข้าสังคมไหม" ที่ดีกว่าถ้าถามว่า "คุณชอบไปงานสังคมที่มีคนมาก ๆ ไหม" ความสัมพันธ์ระหว่างความลำเอียงเพื่อยืนยันและทักษะสังคมพบในงานทดลองที่ศึกษาวิธีการที่นักศึกษามหาวิทยาลัยทำความรู้จักกับคนอื่น ๆ คือ นักศึกษาที่เข้าใจตนเองดี ผู้มีความรู้สึกไวต่อสิ่งแวดล้อมและกฏเกณฑ์ของสังคม จะถามคำถามเมื่อสัมภาษณ์เจ้าหน้าที่มหาวิทยาลัยผู้มีฐานะสูง ที่เข้ากับผู้รับคำถามได้ดีกว่าเมื่อกำลังทำความรู้จักกับนักศึกษาด้วยกัน[93] (เพื่อที่จะให้เจ้าหน้าที่มหาวิทยาลัยมีความประทับใจในผู้ถาม)

นักจิตวิทยาเจ็นนิเฟอร์ เลอร์เนอร์ และฟิลิป เท็ทล็อก แบ่งกระบวนการคิดหาเหตุผลออกเป็นสองอย่าง คือ ความคิดแบบสำรวจ (exploratory thought) ที่พิจารณาแนวคิดต่าง ๆ อย่างเป็นกลาง ๆ โดยพยายามค้นหาข้อขัดแย้งต่อแนวคิดเหล่านั้นเท่าที่จะเป็นไปได้ ในขณะที่ความคิดเพื่อยืนยัน มีจุดประสงค์เพื่อจะหาหลักฐานสนับสนุนแนวคิดอย่างหนึ่ง เลอร์เนอร์และเท็ทล็อกกล่าวว่า เมื่อเราคิดว่าจะต้องให้เหตุผลในจุดยืนของตนกับผู้อื่น ผู้มีทัศนคติที่เรารู้แล้ว เรามักจะถือเอาจุดยืนที่คล้ายกันกับของคนเหล่านั้น แล้วใช้ความคิดเพื่อยืนยันเพื่อเพิ่มความน่าเชื่อถือของเรา แต่ถ้าว่า ผู้อื่นนั้น มีความคิดรุนแรงหรือปากร้าย เราจะเลิกคิดถึงเรื่องนั้น แล้วกล่าวเพียงแต่ความเห็นส่วนตัวของตนโดยไม่หาข้อยืนยัน[94] เลอร์เนอร์และเท็ทล็อกกล่าวว่า เราจะกดดันให้ตนเองคิดอย่างรอบคอบอย่างมีเหตุผล เมื่อรู้ว่าจะต้องอธิบายความคิดของตนต่อผู้อื่น ที่รู้เรื่องดี สนใจในความจริง และมีทัศนคติที่เรายังไม่รู้[95] แต่ว่า เพราะว่า เหตุการณ์ที่มีองค์ประกอบอย่างนี้มีน้อย ดังนั้น เราจึงใช้ความคิดแบบยืนยันโดยมาก[96]

ผล[แก้]

เกี่ยวกับการเงิน[แก้]

ความลำเอียงเพื่อยืนยันอาจนำให้นักลงทุนมีความมั่นใจมากเกินไป โดยไม่ใส่ใจในหลักฐานว่ายุทธวิธีของตนจะทำให้ขาดทุน[97][98] ในงานวิจัยตลาดหลักทรัพย์เลือกตั้ง (จุดประสงค์เพื่อจะพยากรณ์ว่าใครจะได้รับเลือกตั้ง) นักลงทุนจะทำกำไรได้ดีกว่าถ้าพยายามฝืนความเอนเอียง ยกตัวอย่างเช่น นักลงทุนที่ประเมินผลการอภิปรายของผู้รับสมัครเลือกตั้งอย่างเป็นกลาง ๆ ไม่ใช่ตามแนวพรรคของตน มีโอกาสที่จะได้กำไรมากกว่า[99] เพื่อที่จะต่อต้านความเอนเอียงเพื่อยืนยัน นักลงทุนสามารถลองเปลี่ยนทัศนคติไปในแนวตรงกันข้ามเพื่อที่จะพัฒนาเหตุผลในทางความคิด[100] เทคนิคหนึ่งให้นักลงทุนจินตนาการว่า การลงทุนของตนเองจะล้มเหลวแล้วให้ถามตนเองว่า ทำไมเหตุการณ์นี้จึงเกิดขึ้น[97]

เกี่ยวกับสุขภาพกายและใจ[แก้]

นักจิตวิทยาเรย์มอนด์ นิกเกอร์สัน โทษความลำเอียงเพื่อยืนยันว่าเป็นเหตุของวิธีการรักษาทางการแพทย์ที่ไร้ผลที่ใช้มาเป็นศตวรรษก่อนที่จะเริ่มวิธีการแพทย์แบบวิทยาศาสตร์[101] คือ ถ้าคนไข้ฟื้นตัวขึ้น ผู้ปฏิบัติการทางแพทย์ก็เก็บคะแนนว่าการรักษามีผล แทนที่จะหาคำอธิบายอื่น ๆ เป็นต้นว่า โรคนั้นได้ดำเนินไปถึงที่สุดโดยธรรมชาติแล้ว[101] การรับข้อมูลแบบเอนเอียงเป็นองค์ประกอบหนึ่งของความดึงดูดใจของการแพทย์ทางเลือก ที่ผู้สนับสนุนมีความพอใจต่อหลักฐานโดยเรื่องเล่า (anecdotal evidence) ที่แสดงผลดีของการรักษาแบบทางเลือก แต่ปฏิบัติต่อหลักฐานทางวิทยาศาสตร์โดยใช้มาตรฐานการประเมินที่สูงกว่า[102][103][104]

การบำบัดโดยประชาน (Cognitive therapy) เป็นวิธีการที่พัฒนาโดยจิตแพทย์อารอน เบ็กในต้นคริสต์ทศวรรษ 1960 และได้กลายมาเป็นวิธีบำบัดรักษาที่นิยม[105] ตามความคิดของเบ็ก การประมวลข้อมูลแบบเอนเอียงเป็นองค์ประกอบของภาวะซึมเศร้า[106] เขาจึงสอนให้คนไข้พิจารณาชีวิตของตนอย่างเป็นกลาง ๆ ไม่ให้เลือกคิดแต่ในส่วนที่ไม่ดี[61] โรคกลัวและโรคไฮโปคอนเดรีย (คือโรควิตกกังวลว่าเป็นโรคหนัก) มีความสัมพันธ์กับความลำเอียงเพื่อยืนยันข้อมูลที่น่ากลัว[107]

เกี่ยวกับการเมืองและกฎหมาย[แก้]

คดีจำลองเปิดโอกาสให้นักวิจัยตรวจสอบความเอนเอียงเพื่อยืนยันในสถานการณ์เสมือนจริง

นิกเกอร์สันเสนอว่า การคิดหาเหตุผลในระบบการเมืองและระบบศาลบางครั้งมีความเอนเอียงแบบไม่รู้ตัว ไปในข้อสรุปที่ผู้พิพากศา ลูกขุน หรือเจ้าหน้าที่ของรัฐได้ถึงความตัดสินใจแล้ว[108] เนื่องจากว่า หลักฐานในคดีที่มีลูกขุนอาจจะมีความซับซ้อน และลูกขุนบ่อยครั้งลงเอยทำการตัดสินใจตั้งแต่ต้น ๆ ในการฟังคดีในศาล จึงสามารถสรุปอย่างสมควรว่า จะเกิดความเห็นที่สุดโต่งเพิ่มขึ้นในการว่าคดีที่เหลือ คำพยากรณ์ว่า ลูกขุนจะมีความเห็นสุดโต่งเพิ่มขึ้น เมื่อเห็นหลักฐานเพิ่มขึ้นเรื่อย ๆ เป็นจริงในงานทดลองด้วยคดีจำลอง[109][110] ความเอนเอียงเพื่อยืนยันมีอิทธิพลในกระบวนการยุติธรรมของคดีอาญาทั้งแบบศาลไต่สวน และทั้งแบบมีทนายสองฝ่าย[111]

ความเอนเอียงเพื่อยืนยันเป็นองค์ในการให้กำเนิดการต่อสู้หรือทำให้การต่อสู้กันยาวนานยิ่งขึ้น เริ่มตั้งแต่การอภิปรายที่เกิดอารมณ์สูงจนกระทั่งถึงศึกสงคราม โดยตีความหมายอย่างเอนเอียงว่าหลักฐานสนับสนุนเหตุผลฝ่ายตน แต่ละฝ่ายอาจจะมีความมั่นใจมากเกินไปว่าจุดยืนฝ่ายตนดีกว่า[112] ในนัยตรงกันข้าม ความเอนเอียงเพื่อยืนยันอาจมีผลเป็นการไม่ใส่ใจหรือตีความหมายผิดซึ่งนิมิตว่าความขัดแย้งหรือการสงครามกำลังจะเกิดขึ้น ยกตัวอย่างเช่น นักจิตวิทยาสต๊วร์ต ซัธเธอร์แลนด์และโทมัส กิดา ต่างเสนอว่า พลเรือเอกสหรัฐฮัสแบนด์ กิมเมล มีความเอนเอียงเพื่อยืนยันเมื่อตัดความสำคัญของหลักฐานว่า ประเทศญี่ปุ่นจะโจมตีท่าเรือเพิร์ล (ที่เป็นเหตุให้สหรัฐประกาศสงครามในสงครามโลกครั้งที่ 2 กับญี่ปุ่น)[72][113]

ในงานวิจัยเกี่ยวกับผู้เชี่ยวชาญทางการเมืองเป็นเวลา 2 ทศวรรษ เท็ทล็อกได้พบว่า โดยรวม ๆ แล้ว คำพยากรณ์ของผู้เชี่ยวชาญเหล่านั้นไม่แม่นเกินความบังเอิญ คือ เท็ทล็อกแบ่งพวกนักเชี่ยวชาญออกเป็นสองกลุ่ม กลุ่ม "สุนัขจิ้งจอก" ที่มีสมมติฐานหลายอย่าง และกลุ่ม "เฮดจ์ฮอก" ที่หัวรั้นมากกว่า โดยทั่ว ๆ ไปคำพยากรณ์ของกลุ่มเฮดจ์ฮอกจะแม่นน้อยกว่า เท็ทล็อกโทษความล้มเหลวของผู้เชี่ยวชาญกลุ่มนี้ว่าเกี่ยวกับความลำเอียงเพื่อยืนยัน ซึ่งโดยเฉพาะก็คือ ความไม่สามารถที่จะใช้ข้อมูลใหม่ ๆ ที่ขัดแย้งกับทฤษฎีของตน[114]

ในคดีฆาตกรรมปี ค.ศ. 2013 ของนายตำรวจรัฐอินดีแอนาเดวิด แคมม์ ฝ่ายผู้ต้องหาเสนอว่า แคมม์ถูกโจทว่าฆ่าภรรยาและลูกทั้งสองของตน เพราะเหตุแห่งความลำเอียงเพื่อยืนยันของผู้สอบสวนคดีเท่านั้น[115] คือ แคมม์ถูกจับ 3 วันหลังจากฆาตกรรมโดยอาศัยหลักฐานที่ผิดพลาด แม้ว่าภายหลังจะได้พบว่า หลักฐานที่ให้ในการออกหมายจับล้วนแต่ผิดพลาดหรือเชื่อถือไม่ได้ แต่ว่าฝ่ายโจทก็ไม่ยอมถอนการฟ้อง[116][117] นอกจากนั้นแล้ว ยังมีการพบเสื้อแขนยาวในที่เกิดเหตุที่ภายหลังพบว่ามีดีเอ็นเอของผู้กระทำผิดคดีอาญาอีกคนหนึ่ง แถมเสื้อยังมีชื่อเล่นในคุกและเลขนักโทษของเขาบนเสื้ออีกด้วย[118] และเจ้าหน้าที่สอบสวนคดีได้สืบหาดีเอ็นเอของแคมม์บนเสื้อ แต่ไม่ได้ตรวจสอบหลักฐานอื่น ๆ ที่มีบนเสื้อ ไม่ได้เช็คดีเอ็นเออื่นผ่านระบบฐานข้อมูลของสำนักงานสอบสวนกลางจนกระทั่ง 5 ปีให้หลังจากเหตุเกิด[119][120] หลังจากพบผู้ต้องสงสัยคนที่สอง ฝ่ายโจทกลับกล่าวหาผู้ต้องสงสัยทั้งสองว่ารวมหัวกันในการฆาตกรรม แม้ว่าจะไม่ได้พบหลักฐานอะไร ๆ ที่เชื่อมชายทั้งสอง[121][122] แต่นายตำรวจแคมม์ในที่สุดก็หลุดจากคดี[123]

เรื่องเหนือธรรมชาติ[แก้]

องค์ประกอบอย่างหนึ่งที่จูงใจคนให้เชื่อหมอดูทั้งหลายก็คือ คนฟังมีความลำเอียงเพื่อยืนยันโดยทำสิ่งที่หมอดูพูดให้เข้ากับชีวิตของตน[124] คือ เพราะว่ามีการกล่าวคำที่ไม่ชัดเจนเป็นจำนวนมากในการดูหมอแต่ละครั้ง หมอดูให้โอกาสแก่คนฟังเพื่อที่จะหาเรื่องที่เข้ากันกับตน นี้เป็นเทคนิคอย่างหนึ่งของการดูหมอแบบ cold reading ที่หมอดูสามารถกล่าวคำที่ตรงกับผู้ฟังอย่างน่าอัศจรรย์ใจโดยที่ไม่มีข้อมูลอะไร ๆ ของคนฟังมาก่อนเลย[124]

นักตรวจสอบเจมส์ แรนดี้ (ผู้มีชื่อเสียงในการแสดงเรื่องเหนือธรรมชาติว่าไม่เป็นจริงหรือเป็นเรื่องหลอกลวง) เปรียบเทียบบันทึกการดูหมอกับสิ่งที่คนให้ดูบอกว่า หมอบอกว่าอะไร แล้วพบว่า ผู้ให้ดูมีความทรงจำแบบเลือกสรรในระดับสูงในข้อความที่ถูก (แต่จำไม่ได้ถึงข้อความที่ผิด)[125]

โดยใช้เป็นตัวอย่างที่เด่นเกี่ยวกับความเอนเอียงในโลกจริง ๆ นิกเกอร์สันกล่าวถึงความเชื่อเกี่ยวกับพีระมิด ที่มักจะหาความหมายในสัดส่วนต่าง ๆ ชองพีระมิดชาวอียิปต์[126] คือ มีขนาดต่าง ๆ มากมายที่วัดได้ในพีรามิดหนึ่ง ๆ เช่นมหาพีระมิดแห่งกีซา และมีวิธีมากมายที่จะรวมหรือดัดแปลงขนาดต่าง ๆ เหล่านั้น ดังนั้น จึงเกือบจะหลีกเลี่ยงไม่ได้ที่คนที่เสาะหาดูเลขต่าง ๆ เหล่านี้โดยเลือก จะพบตัวเลขที่ตรงกับเลขอะไรอย่างหนึ่งที่เป็นความจริง เช่นขนาดของโลก[126]

ในวิทยาศาสตร์[แก้]

ลักษณะเด่นอย่างหนึ่งในการหาเหตุผลทางวิทยาศาสตร์ก็คือการเสาะหาหลักฐานที่พิสูจน์ความผิดและหลักฐานที่ยืนยันความถูกต้องของสมมติฐาน[127] แต่ถึงกระนั้น ก็ยังมีเหตุการณ์หลายเหตุการณ์ในประวัติวิทยาศาสตร์ ที่นักวิทยาศาสตร์ต่อต้านการค้นพบใหม่ ๆ โดยตีความหมายแบบเลือกและไม่สนใจในข้อมูลที่คัดค้านความคิดที่มีอยู่ก่อน[127] งานวิจัยได้พบว่า งานประเมินคุณภาพของงานวิจัยวิทยาศาสตร์มีจุดอ่อนโดยเฉพาะต่อความเอนเอียงเพื่อยืนยัน คือ ได้พบว่า มีหลายครั้งหลายคราวที่นักวิทยาศาสตร์ให้คะแนนกับงานวิจัยที่พบผลที่เข้ากับความเชื่อฝ่ายตนดีกว่างานวิจัยที่พบผลที่ไม่เข้ากัน[78][128][129] อย่างไรก็ดี ถ้าสมมุติว่า คำถามที่ต้องการจะหาคำตอบนั้นมีความสำคัญ การออกแบบการทดลองก็ใช้ได้ และข้อมูลที่ได้มีการพรรณนาไว้อย่างชัดเจนและสมบูรณ์ ผลงานนั้นก็ควรจะมีความสำคัญกับวงการวิทยาศาสตร์และไม่ควรจะเกิดการพิจารณาตัดสินโดยไม่ใช้หลักฐานอย่างเป็นกลาง ๆ ไม่ว่าผลจะเข้ากันกับพยากรณ์ของทฤษฎีปัจจุบันหรือไม่[129]

ในวงการวิจัยวิทยาศาสตร์ ความเอนเอียงเพื่อยืนยันสามารถผดุงชีวิตของทฤษฎีหรือโปรแกรมงานวิจัยไว้ แม้ว่าจะมีเหตุผลที่ไม่พอเพียง หรือแม้แต่มีเหตุผลที่คัดค้าน[72][130] โดยเฉพาะอย่างยิ่ง การศึกษาปรากฏการณ์ทางจิตที่อธิบายไม่ได้ (parapsychology) ได้รับอิทธิพลจากความเอนเอียงนี้เป็นอย่างยิ่ง[131]

ความเอนเอียงเพื่อยืนยันในนักวิจัยสามารถมีผลต่อข้อมูลหลักฐานที่รับการรายงาน ข้อมูลที่ไม่เข้ากับความคาดหวังของนักวิจัยอาจจะมีการทิ้งไปโดยอ้างว่า เชื่อถือไม่ได้ ซึ่งนำไปสู่ความเอนเอียงที่ชื่อว่า publication bias (ความเอนเอียงในการตีพิมพ์ผลงาน) เพื่อที่จะต่อต้านความโน้มน้าวเช่นนี้ การฝึกหัดนักวิทยาศาสตร์ต้องสอนวิธีป้องกันความเอนเอียง[132] ยกตัวอย่างเช่น งานทดลองควรจะเป็นการทดลองแบบมีกลุ่มควบคุมและเลือกผู้รับการทดลองแบบสุ่ม (randomized controlled trial) และมีการปริทัศน์ของงานทั้งระบบ (systematic review) เพื่อที่จะลดความเอนเอียงต่าง ๆ ให้อยู่ในระดับที่ต่ำที่สุด[132][133] นอกจากนั้นแล้ว กระบวนการปริทัศน์ของผู้ชำนาญในสาขาเดียวกัน (peer review) เชื่อกันว่าช่วยลดความเอนเอียงในส่วนบุคคลด้วย[134] ถึงแม้ว่า กระบวนการปริทัศน์เองก็ยังอาจจะมีความเอนเอียงอะไรบางอย่างได้[129][135]

ดังนั้น ความลำเอียงเพื่อยืนยันอาจจะก่อความเสียหายให้กับกระบวนการประเมินผลที่ควรเป็นกลาง ๆ เมื่อมีผลงานทดลองที่ไม่สอดคล้องกับความคิดที่เคยมีมาก่อน เนื่องจากว่า บุคคลที่มีความเอนเอียงอาจจะมองว่า หลักฐานที่คัดค้านไม่มีน้ำหนักและไม่ให้การพิจารณาอย่างเป็นจริงเป็นจังเพื่อที่จะแก้ความคิดเห็นฝ่ายตน[128] ดังนั้น ผู้ที่ค้นพบหลักการวิทยาศาสตร์ใหม่ ๆ มักจะประสบแรงต่อต้านจากกลุ่มนักวิทยาศาสตร์ และงานวิจัยที่แสดงผลที่ไม่สอดคล้องกับความคิดที่มีอยู่มักจะได้รับการปริทัศน์ที่รุนแรง[136]

ในความรู้สึกเกี่ยวกับตน[แก้]

นักสังคมจิตวิทยาได้ระบุถึงความโน้มน้าวสองอย่างที่มนุษย์สืบหาและตีความหมายข้อมูลเกี่ยวกับตนเอง คือ การยืนยันตน (Self-verification) เป็นแรงกระตุ้นที่จะยืนยันภาพพจน์ของตน และการยกตน (self-enhancement) เป็นแรงกระตุ้นที่จะหาคำชม แรงกระตุ้นทั้งสองเกิดจากความเอนเอียงเพื่อยืนยัน[137] ในงานทดลองที่ผู้ร่วมการทดลองได้รับคำวิจารณ์ที่ขัดแย้งกับภาพพจน์ของตนเอง พวกเขามักจะไม่ค่อยใส่ใจหรือจะระลึกคำวิจารณ์เหล่านั้นไม่ได้ เมื่อเทียบกับคำชม[138][139][140] พวกเขาจะลดแรงกระทบของข้อมูลเช่นนั้นโดยกล่าวว่า เชื่อถือไม่ได้[138][141][142] งานทดลองคล้าย ๆ กันพบความชอบใจในคำชม และคนที่กล่าวคำชม มากกว่าคำวิจารณ์ (และคนวิจารณ์)[137]

เชิงอรรถ[แก้]

  1. ผู้เชี่ยวชาญทางพันธุศาสตร์เดวิด เพอร์กินส์บัญญัติคำว่า "myside bias" เพราะความลำเอียงต่อความคิดเห็นฝ่ายของตน (my side) (Baron 2000, p. 195)
  2. ข้อความในบทความ - ทัคแมน (ค.ศ. 1984) พรรณนาถึงความลำเอียงเพื่อยืนยันแบบหนึ่งใช้เพื่อสนับสนุนนโยบายที่รัฐบาลได้กระทำ “หลังจากที่นโยบายหนึ่งได้รับการอนุมัติและเริ่มการปฏิบัติ การกระทำที่เกิดขึ้นหลังจากนั้นจะกลายเป็นการหาเหตุผลเพื่อที่จะสนับสนุนนโยบายนั้น” (หน้า 245) ในเรื่องนโยบายที่ยังให้สหรัฐอเมริกาเข้าร่วมสงครามเวียดนาม และหน่วงเหนี่ยวให้กองทัพสหรัฐต้องทำการสงครามอยู่ถึง 16 ปี แม้ว่าจะมีหลักฐานจำนวนนับไม่ได้ที่แสดงว่า ไม่ควรจะเข้าร่วมตั้งแต่เบื้องต้น ทัคแมนเสนอว่า หลังจากที่นโยบายหนึ่งได้รับการอนุมัติและเริ่มการปฏิบัติโดยรัฐบาล การกระทำของรัฐที่เกิดขึ้นหลังจากนั้นจะเป็นไปเพื่อหาเหตุผลที่จะสนับสนุนนโยบายนั้น

    การหลอกลวงตนเองโดยความมีหัวแข็งมีบทบาทสำคัญใน (การตัดสินใจของ) รัฐบาล เป็นการประมวลเหตุการณ์หนึ่ง ๆ โดยใช้ความคิดเห็นตายตัวที่มีอยู่เดิม ๆ โดยไม่สนใจหรือแม้แต่ปฏิเสธหลักฐานที่ขัดแย้ง เป็นการทำการตามความหวังและเป็นการขัดขวางตนเองไม่ให้กลับความคิดได้แม้มีหลักฐานความจริง ยอดตัวอย่างในเรื่องนี้ ก็คือ คำที่นักประวัติศาสตร์กล่าวไว้เกี่ยวกับพระเจ้าเฟลีเปที่ 2 แห่งสเปน ซึ่งเป็นเจ้าแผ่นดินที่มีหัวแข็งมากที่สุดพระองค์หนึ่งว่า “ไม่มีประสบการณ์แสดงความล้มเหลวของนโยบายของพระองค์ ที่จะสั่นคลอนความเชื่อในความยอดเยี่ยมโดยธรรมชาติ (ของนโยบาย)”

    ทัคแมนเสนอว่า ความโง่เขลาเป็นการหลอกตัวเองแบบหนึ่ง ที่มีลักษณะเป็น "การยืนหยัดอยู่ในรากฐานอันหนึ่ง แม้ว่าจะมีหลักฐานที่ขัดแย้งก็ตาม" (หน้า 209)[3]

  3. Assimilation bias เป็นอีกคำหนึ่งที่ใช้ในการตีความหมายเข้าข้างตน (Risen & Gilovich 2007, p. 113)
  4. Rorschach inkblot test เป็นการทดสอบทางจิตวิทยาที่ผู้ร่วมการทดลองแสดงว่าเห็นอะไรในรูปหมึกจุด ที่ใช้ในการวิเคราะห์ผ่านการแปลความหมายทางจิตวิทยา ผ่านขั้นตอนวิธีที่ซับซ้อน หรือผ่านวิธีทั้งสอง นักจิตวิทยาบางพวกใช้การทดสอบอย่างนี้เพื่อตรวจสอบลักษณะต่าง ๆ ทางบุคลิกภาพและการทำงานทางอารมณ์ (ว่ามีปฏิกิริยาทางอารมณ์ปกติดีหรือไม่)
  5. วาสันยังใช้คำว่า "verification bias" อีกด้วย (Poletiek 2001, p. 73) ซึ่งในปัจจุบันใช้ในอีกความหมายหนึ่ง ดู Begg CB, Greenes RA (1983). "Assessment of diagnostic tests when disease verification is subject to selection bias". Biometrics 39 (1): 207–215. doi:10.2307/2530820. PMID 6871349. 

อ้างอิง[แก้]

  1. "ศัพท์บัญญัติอังกฤษ-ไทย, ไทย-อังกฤษ ฉบับราชบัณฑิตสถาน (คอมพิวเตอร์) รุ่น ๑.๑", ให้ความหมายของ bias ว่า "ความลำเอียง, -เอนเอียง"
  2. 2.0 2.1 Plous 1993, p. 233
  3. Nickerson, Raymond S. (June 1998). "Confirmation Bias: A Ubiquitous Phenomenon in Many Guises". Review of General Psychology 2 (2): 175–220. doi:10.1037/1089-2680.2.2.175. 
  4. Darley, John M.; Gross, Paget H. (2000), "A Hypothesis-Confirming Bias in Labelling Effects", in Stangor, Charles, Stereotypes and prejudice: essential readings, Psychology Press, p. 212, ISBN 978-0-86377-589-5, OCLC 42823720 
  5. Risen & Gilovich 2007
  6. Nickerson 1998, pp. 177–178
  7. 7.0 7.1 7.2 7.3 Kunda 1999, pp. 112–115
  8. 8.0 8.1 Baron 2000, pp. 162–164
  9. Kida 2006, pp. 162–165
  10. Devine, Patricia G.; Hirt, Edward R.; Gehrke, Elizabeth M. (1990), "Diagnostic and confirmation strategies in trait hypothesis testing", Journal of Personality and Social Psychology (American Psychological Association) 58 (6): 952–963, doi:10.1037/0022-3514.58.6.952, ISSN 1939-1315 
  11. Trope, Yaacov; Bassok, Miriam (1982), "Confirmatory and diagnosing strategies in social information gathering", Journal of Personality and Social Psychology (American Psychological Association) 43 (1): 22–34, doi:10.1037/0022-3514.43.1.22, ISSN 1939-1315 
  12. 12.0 12.1 12.2 Klayman, Joshua; Ha, Young-Won (1987), "Confirmation, Disconfirmation and Information in Hypothesis Testing", Psychological Review (American Psychological Association) 94 (2): 211–228, doi:10.1037/0033-295X.94.2.211, ISSN 0033-295X, สืบค้นเมื่อ 2009-08-14 
  13. 13.0 13.1 13.2 Oswald & Grosjean 2004, pp. 82–83
  14. Kunda, Ziva; Fong, G.T.; Sanitoso, R.; Reber, E. (1993), "Directional questions direct self-conceptions", Journal of Experimental Social Psychology (Society of Experimental Social Psychology) 29: 62–63, ISSN 0022-1031  via Fine 2006, pp. 63–65
  15. 15.0 15.1 Shafir, E. (1993), "Choosing versus rejecting: why some options are both better and worse than others", Memory and Cognition 21 (4): 546–556, PMID 8350746  via Fine 2006, pp. 63–65
  16. Snyder, Mark; Swann, Jr., William B. (1978), "Hypothesis-Testing Processes in Social Interaction", Journal of Personality and Social Psychology (American Psychological Association) 36 (11): 120ฃ2–1212, doi:10.1037/0022-3514.36.11.1202  via Poletiek 2001, p. 131
  17. 17.0 17.1 Kunda 1999, pp. 117–118
  18. 18.0 18.1 Albarracin, D.; Mitchell, A.L. (2004). "The Role of Defensive Confidence in Preference for Proattitudinal Information: How Believing That One Is Strong Can Sometimes Be a Defensive Weakness". Personality and Social Psychology Bulletin 30 (12): 1565–1584. doi:10.1177/0146167204271180. 
  19. Fischer, P.; Fischer, Julia K.; Aydin, Nilüfer; Frey, Dieter (2010). "Physically Attractive Social Information Sources Lead to Increased Selective Exposure to Information". Basic and Applied Social Psychology 32 (4): 340–347. doi:10.1080/01973533.2010.519208. 
  20. 20.0 20.1 20.2 Stanovich, K. E.; West, R. F.; Toplak, M. E. (2013). "Myside Bias, Rational Thinking, and Intelligence". Current Directions in Psychological Science 22 (4): 259–264. doi:10.1177/0963721413480174. 
  21. 21.0 21.1 Mynatt, Clifford R.; Doherty, Michael E.; Tweney, Ryan D. (1978), "Consequences of confirmation and disconfirmation in a simulated research environment", Quarterly Journal of Experimental Psychology 30 (3): 395–406, doi:10.1080/00335557843000007 
  22. Kida 2006, p. 157
  23. 23.0 23.1 23.2 23.3 23.4 23.5 Lord, Charles G.; Ross, Lee; Lepper, Mark R. (1979), "Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence", Journal of Personality and Social Psychology (American Psychological Association) 37 (11): 2098–2109, doi:10.1037/0022-3514.37.11.2098, ISSN 0022-3514 
  24. 24.0 24.1 Baron 2000, pp. 201–202
  25. Vyse 1997, p. 122
  26. 26.0 26.1 26.2 26.3 Taber, Charles S.; Lodge, Milton (July 2006), "Motivated Skepticism in the Evaluation of Political Beliefs", American Journal of Political Science (Midwest Political Science Association) 50 (3): 755–769, doi:10.1111/j.1540-5907.2006.00214.x, ISSN 0092-5853 
  27. 27.0 27.1 Westen, Drew; Blagov, Pavel S.; Harenski, Keith; Kilts, Clint; Hamann, Stephan (2006), "Neural Bases of Motivated Reasoning: An fMRI Study of Emotional Constraints on Partisan Political Judgment in the 2004 U.S. Presidential Election", Journal of Cognitive Neuroscience (Massachusetts Institute of Technology) 18 (11): 1947–1958, doi:10.1162/jocn.2006.18.11.1947, PMID 17069484, สืบค้นเมื่อ 2009-08-14 
  28. Gadenne, V.; Oswald, M. (1986), "Entstehung und Veränderung von Bestätigungstendenzen beim Testen von Hypothesen [Formation and alteration of confirmatory tendencies during the testing of hypotheses]", Zeitschrift für experimentelle und angewandte Psychologie 33: 360–374  via Oswald & Grosjean 2004, p. 89
  29. Hastie, Reid; Park, Bernadette (2005), "The Relationship Between Memory and Judgment Depends on Whether the Judgment Task is Memory-Based or On-Line", in Hamilton, David L., Social cognition: key readings, New York: Psychology Press, p. 394, ISBN 0-86377-591-8, OCLC 55078722 
  30. 30.0 30.1 30.2 Oswald & Grosjean 2004, pp. 88–89
  31. Stangor, Charles; McMillan, David (1992), "Memory for expectancy-congruent and expectancy-incongruent information: A review of the social and social developmental literatures", Psychological Bulletin (American Psychological Association) 111 (1): 42–61, doi:10.1037/0033-2909.111.1.42 
  32. 32.0 32.1 Snyder, M.; Cantor, N. (1979), "Testing hypotheses about other people: the use of historical knowledge", Journal of Experimental Social Psychology 15 (4): 330–342, doi:10.1016/0022-1031(79)90042-8  via Goldacre 2008, p. 231
  33. Kunda 1999, pp. 225–232
  34. Sanitioso, Rasyid; Kunda, Ziva; Fong, G.T. (1990), "Motivated recruitment of autobiographical memories", Journal of Personality and Social Psychology (American Psychological Association) 59 (2): 229–241, doi:10.1037/0022-3514.59.2.229, ISSN 0022-3514, PMID 2213492 
  35. 35.0 35.1 35.2 35.3 Levine, L.; Prohaska, V.; Burgess, S.L.; Rice, J.A.; Laulhere, T.M. (2001). "Remembering past emotions: The role of current appraisals.". Cognition and Emotion 15: 393–417. doi:10.1080/02699930125955. 
  36. Safer, M.A.; Bonanno, G.A.; Field, N. (2001). ""It was never that bad": Biased recall of grief and long-term adjustment to the death of a spouse". Memory 9 (3): 195–203. doi:10.1080/09658210143000065. 
  37. 37.0 37.1 Russell, Dan; Jones, Warren H. (1980), "When superstition fails: Reactions to disconfirmation of paranormal beliefs", Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) 6 (1): 83–88, doi:10.1177/014616728061012, ISSN 1552-7433  via Vyse 1997, p. 121
  38. 38.0 38.1 38.2 Kuhn, Deanna; Lao, Joseph (March 1996), "Effects of Evidence on Attitudes: Is Polarization the Norm?", Psychological Science (American Psychological Society) 7 (2): 115–120, doi:10.1111/j.1467-9280.1996.tb00340.x 
  39. Baron 2000, p. 201
  40. Miller, A.G.; McHoskey, J.W.; Bane, C.M.; Dowd, T.G. (1993), "The attitude polarization phenomenon: Role of response measure, attitude extremity, and behavioral consequences of reported attitude change", Journal of Personality and Social Psychology 64 (4): 561–574, doi:10.1037/0022-3514.64.4.561 
  41. "backfire effect". The Skeptic's Dictionary. สืบค้นเมื่อ 26 April 2012. 
  42. Silverman, Craig (2011-06-17). "The Backfire Effect". Columbia Journalism Review. สืบค้นเมื่อ 2012-05-01. "When your deepest convictions are challenged by contradictory evidence, your beliefs get stronger." 
  43. 43.0 43.1 43.2 43.3 Ross, Lee; Anderson, Craig A. (1982), "Shortcomings in the attribution process: On the origins and maintenance of erroneous social assessments", in Kahneman, Daniel; Slovic, Paul; Tversky, Amos, Judgment under uncertainty: Heuristics and biases, Cambridge University Press, pp. 129–152, ISBN 978-0-521-28414-1, OCLC 7578020 
  44. 44.0 44.1 44.2 44.3 Nickerson 1998, p. 187
  45. Kunda 1999, p. 99
  46. Ross, Lee; Lepper, Mark R.; Hubbard, Michael (1975), "Perseverance in self-perception and social perception: Biased attributional processes in the debriefing paradigm", Journal of Personality and Social Psychology (American Psychological Association) 32 (5): 880–892, doi:10.1037/0022-3514.32.5.880, ISSN 0022-3514, PMID 1185517  via Kunda 1999, p. 99
  47. 47.0 47.1 47.2 Anderson, Craig A.; Lepper, Mark R.; Ross, Lee (1980), "Perseverance of Social Theories: The Role of Explanation in the Persistence of Discredited Information", Journal of Personality and Social Psychology (American Psychological Association) 39 (6): 1037–1049, doi:10.1037/h0077720, ISSN 0022-3514 
  48. 48.0 48.1 48.2 48.3 48.4 Baron 2000, pp. 197–200
  49. 49.0 49.1 49.2 Fine 2006, pp. 66–70
  50. 50.0 50.1 Plous 1993, pp. 164–166
  51. Redelmeir, D. A.; Tversky, Amos (1996), "On the belief that arthritis pain is related to the weather", Proceedings of the National Academy of Sciences 93 (7): 2895–2896, doi:10.1073/pnas.93.7.2895  via Kunda 1999, p. 127
  52. 52.0 52.1 52.2 Kunda 1999, pp. 127–130
  53. Plous 1993, pp. 162–164
  54. ดัดแปลงจาก Fielder, Klaus (2004), "Illusory correlation", in Pohl, Rüdiger F., Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, Hove, UK: Psychology Press, p. 103, ISBN 978-1-84169-351-4, OCLC 55124398 
  55. Stanovich, K. E.; West, R. F.; Toplak, M. E. (5 August 2013). "Myside Bias, Rational Thinking, and Intelligence". Current Directions in Psychological Science 22 (4): 259–264. doi:10.1177/0963721413480174. 
  56. Baron, Jonathan (1995). "Myside bias in thinking about abortion.". Thinking & Reasoning: 221–235. 
  57. 57.0 57.1 Wolfe, Christopher; Anne Britt (2008). "The locus of the myside bias in written argumentation.". Thinking & Reasoning: 1–27. 
  58. Mason, Lucia; Scirica, Fabio (October 2006). "Prediction of students' argumentation skills about controversial topics by epistemological understanding". Learning and Instruction 16 (5): 492–509. doi:10.1016/j.learninstruc.2006.09.007. 
  59. Weinstock, Michael (December 2009). "Relative expertise in an everyday reasoning task: Epistemic understanding, problem representation, and reasoning competence". Learning and Individual Differences 19 (4): 423–434. doi:10.1016/j.lindif.2009.03.003. 
  60. Weinstock, Michael; Neuman, Yair; Tabak, Iris (January 2004). "Missing the point or missing the norms? Epistemological norms as predictors of students' ability to identify fallacious arguments". Contemporary Educational Psychology 29 (1): 77–94. doi:10.1016/S0361-476X(03)00024-9. 
  61. 61.0 61.1 Baron 2000, pp. 195–196
  62. Thucydides 4.108.4
  63. Alighieri, Dante. Paradiso canto XIII: 118–120. Trans. Allen Mandelbaum
  64. 64.0 64.1 Bacon, Francis (1620) . Novum Organum. reprinted in Burtt, E.A., ed. (1939), The English philosophers from Bacon to Mill, New York: Random House, p. 36  via Nickerson 1998, p. 176
  65. Tolstoy, Leo. What is Art? p. 124 (1899) . ในงานชิ้นโบแดงของตอลสตอย The Kingdom of God Is Within You (ราชอาณาจักรของพระเจ้าอยู่ในตัวคุณ) (ค.ศ. 1893) เขาได้กล่าวคำที่คล้ายกันไว้ว่า "เรื่องที่ยากที่สุดสามารถอธิบายให้คนที่มีสติปัญญาช้าที่สุด ถ้าเขายังไม่มีความเห็นในเรื่องนั้น แต่เรื่องที่ง่ายที่สุดกลับไม่สามารถทำให้ชัดเจนแก่คนที่ฉลาดที่สุด ถ้าเขาเชื่อว่าเขารู้แล้ว โดยไร้เงาของความสงสัย ว่าอะไรเป็นอะไร" (บทที่ 3) แปลจากภาษารัสเซียโดยคอนแสต็นซ์ การ์เน็ตต์ มหานครนิวยอร์ก ค.ศ. 1894 Project Gutenberg edition เรียกดูเมื่อ 2009-08-24.
  66. Gale, Maggie; Ball, Linden J. (2002), "Does Positivity Bias Explain Patterns of Performance on Wason's 2-4-6 task?", in Gray, Wayne D.; Schunn, Christian D., Proceedings of the Twenty-Fourth Annual Conference of the Cognitive Science Society, Routledge, p. 340, ISBN 978-0-8058-4581-5, OCLC 469971634 
  67. 67.0 67.1 Wason, Peter C. (1960), "On the failure to eliminate hypotheses in a conceptual task", Quarterly Journal of Experimental Psychology (Psychology Press) 12 (3): 129–140, doi:10.1080/17470216008416717, ISSN 1747-0226 
  68. Nickerson 1998, p. 179
  69. Lewicka 1998, p. 238
  70. Oswald & Grosjean 2004, pp. 79–96
  71. Wason, Peter C. (1968), "Reasoning about a rule", Quarterly Journal of Experimental Psychology (Psychology Press) 20 (3): 273–28, doi:10.1080/14640746808400161, ISSN 1747-0226 
  72. 72.0 72.1 72.2 Sutherland, Stuart (2007), Irrationality (2nd ed.), London: Pinter and Martin, pp. 95–103, ISBN 978-1-905177-07-3, OCLC 72151566 
  73. Barkow, Jerome H.; Cosmides, Leda; Tooby, John (1995), The adapted mind: evolutionary psychology and the generation of culture, Oxford University Press US, pp. 181–184, ISBN 978-0-19-510107-2, OCLC 33832963 
  74. Oswald & Grosjean 2004, pp. 81–82, 86–87
  75. Lewicka 1998, p. 239
  76. Tweney, Ryan D.; Doherty, Michael E.; Worner, Winifred J.; Pliske, Daniel B.; Mynatt, Clifford R.; Gross, Kimberly A.; Arkkelin, Daniel L. (1980), "Strategies of rule discovery in an inference task", The Quarterly Journal of Experimental Psychology (Psychology Press) 32 (1): 109–123, doi:10.1080/00335558008248237, ISSN 1747-0226  (Experiment IV)
  77. Oswald & Grosjean 2004, pp. 86–89
  78. 78.0 78.1 Hergovich, Schott & Burger 2010
  79. Maccoun 1998
  80. Friedrich 1993, p. 298
  81. Kunda 1999, p. 94
  82. Nickerson 1998, pp. 198–199
  83. Nickerson 1998, p. 200
  84. 84.0 84.1 84.2 Nickerson 1998, p. 197
  85. Baron 2000, p. 206
  86. Matlin, Margaret W. (2004), "Pollyanna Principle", in Pohl, Rüdiger F., Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, Hove: Psychology Press, pp. 255–272, ISBN 978-1-84169-351-4, OCLC 55124398 
  87. Dawson, Erica; Gilovich, Thomas; Regan, Dennis T. (October 2002), "Motivated Reasoning and Performance on the Wason Selection Task", Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) 28 (10): 1379–1387, doi:10.1177/014616702236869, สืบค้นเมื่อ 2009-09-30 
  88. Ditto, Peter H.; Lopez, David F. (1992), "Motivated skepticism: use of differential decision criteria for preferred and nonpreferred conclusions", Journal of personality and social psychology (American Psychological Association) 63 (4): 568–584, doi:10.1037/0022-3514.63.4.568, ISSN 0022-3514 
  89. Nickerson 1998, p. 198
  90. Oswald & Grosjean 2004, pp. 91–93
  91. Friedrich 1993, pp. 299, 316–317
  92. Trope, Y.; Liberman, A. (1996), "Social hypothesis testing: cognitive and motivational mechanisms", in Higgins, E. Tory; Kruglanski, Arie W., Social Psychology: Handbook of basic principles, New York: Guilford Press, ISBN 978-1-57230-100-9, OCLC 34731629  via Oswald & Grosjean 2004, pp. 91–93
  93. 93.0 93.1 Dardenne, Benoit; Leyens, Jacques-Philippe (1995), "Confirmation Bias as a Social Skill", Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) 21 (11): 1229–1239, doi:10.1177/01461672952111011, ISSN 1552-7433 
  94. Shanteau, James (2003). Sandra L. Schneider, ed. Emerging perspectives on judgment and decision research. Cambridge [u.a.]: Cambridge University Press. p. 445. ISBN 0-521-52718-X. 
  95. Haidt, Jonathan (2012). The Righteous Mind : Why Good People are Divided by Politics and Religion. New York: Pantheon Books. pp. 1473–4 (e–book edition). ISBN 0-307-37790-3. 
  96. Lindzey, edited by Susan T. Fiske, Daniel T. Gilbert, Gardner (2010). The handbook of social psychology. (5th ed.). Hoboken, N.J.: Wiley. p. 811. ISBN 0-470-13749-5. 
  97. 97.0 97.1 Zweig, Jason (November 19, 2009), "How to Ignore the Yes-Man in Your Head", Wall Street Journal (Dow Jones & Company), สืบค้นเมื่อ 2010-06-13 
  98. Pompian, Michael M. (2006), Behavioral finance and wealth management: how to build optimal portfolios that account for investor biases, John Wiley and Sons, pp. 187–190, ISBN 978-0-471-74517-4, OCLC 61864118 
  99. Hilton, Denis J. (2001), "The psychology of financial decision-making: Applications to trading, dealing, and investment analysis", Journal of Behavioral Finance (Institute of Behavioral Finance) 2 (1): 37–39, doi:10.1207/S15327760JPFM0201_4, ISSN 1542-7579 
  100. Krueger, David; Mann, John David (2009), The Secret Language of Money: How to Make Smarter Financial Decisions and Live a Richer Life, McGraw Hill Professional, pp. 112–113, ISBN 978-0-07-162339-1, OCLC 277205993 
  101. 101.0 101.1 Nickerson 1998, p. 192
  102. Goldacre 2008, p. 233
  103. Singh, Simon; Ernst, Edzard (2008), Trick or Treatment?: Alternative Medicine on Trial, London: Bantam, pp. 287–288, ISBN 978-0-593-06129-9 
  104. Atwood, Kimball (2004), "Naturopathy, Pseudoscience, and Medicine: Myths and Fallacies vs Truth", Medscape General Medicine 6 (1): 33 
  105. Neenan, Michael; Dryden, Windy (2004), Cognitive therapy: 100 key points and techniques, Psychology Press, p. ix, ISBN 978-1-58391-858-6, OCLC 474568621 
  106. Blackburn, Ivy-Marie; Davidson, Kate M. (1995), Cognitive therapy for depression & anxiety: a practitioner's guide (2 ed.), Wiley-Blackwell, p. 19, ISBN 978-0-632-03986-9, OCLC 32699443 
  107. Harvey, Allison G.; Watkins, Edward; Mansell, Warren (2004), Cognitive behavioural processes across psychological disorders: a transdiagnostic approach to research and treatment, Oxford University Press, pp. 172–173, 176, ISBN 978-0-19-852888-3, OCLC 602015097 
  108. Nickerson 1998, pp. 191–193
  109. Myers, D.G.; Lamm, H. (1976), "The group polarization phenomenon", Psychological Bulletin 83 (4): 602–627, doi:10.1037/0033-2909.83.4.602  via Nickerson 1998, pp. 193–194
  110. Halpern, Diane F. (1987), Critical thinking across the curriculum: a brief edition of thought and knowledge, Lawrence Erlbaum Associates, p. 194, ISBN 978-0-8058-2731-6, OCLC 37180929 
  111. Roach, Kent (2010), "Wrongful Convictions: Adversarial and Inquisitorial Themes", North Carolina Journal of International Law and Commercial Regulation 35, SSRN 1619124, "Both adversarial and inquisitorial systems seem subject to the dangers of tunnel vision or confirmation bias." 
  112. Baron 2000, pp. 191,195
  113. Kida 2006, p. 155
  114. Tetlock, Philip E. (2005), Expert Political Judgment: How Good Is It? How Can We Know?, Princeton, N.J.: Princeton University Press, pp. 125–128, ISBN 978-0-691-12302-8, OCLC 56825108 
  115. "David Camm Blog: Investigation under fire". WDRB. October 10, 2013. 
  116. Kircher, Travis. "David Camm blogsite: opening statements". WDRB. สืบค้นเมื่อ January 3, 2014. 
  117. "David Camm v. State of Indiana". Court of Appeals of Indiana. 2011-11-15. 
  118. Boyd, Gordon (September 10, 2013). "Camm trial 9/10: Defense finds inconsistencies but can't touch Boney's past". WBRC. 
  119. Zambroski,James. "Witness Says Prosecutor In First Camm Trial Blew Up When She Couldn't Link Camm's DNA To Boney's Shirt". WAVE News. 
  120. Eisenmenger, Sarah (September 9, 2013). "Convicted Killer Charles Boney says David Camm was the shooter". wave3. สืบค้นเมื่อ January 5, 2014. 
  121. Eisenmenger, Sarah (Sep 9, 2013). "Convicted Killer Charles Boney says David Camm was the shooter". wave3. 
  122. Adams, Harold J. (2011-02-18). "David Camm's attorney's appeal ruling, seek prosecutor's removal". Courier Journal, page B1. 
  123. David Camm verdict: NOT GUILTY, WDRB TV, October 24, 2013
  124. 124.0 124.1 Smith, Jonathan C. (2009), Pseudoscience and Extraordinary Claims of the Paranormal: A Critical Thinker's Toolkit, John Wiley and Sons, pp. 149–151, ISBN 978-1-4051-8122-8, OCLC 319499491 
  125. Randi, James (1991), James Randi: psychic investigator, Boxtree, pp. 58–62, ISBN 978-1-85283-144-8, OCLC 26359284 
  126. 126.0 126.1 Nickerson 1998, p. 190
  127. 127.0 127.1 Nickerson 1998, pp. 192–194
  128. 128.0 128.1 Koehler 1993
  129. 129.0 129.1 129.2 Mahoney 1977
  130. Proctor, Robert W.; Capaldi, E. John (2006), Why science matters: understanding the methods of psychological research, Wiley-Blackwell, p. 68, ISBN 978-1-4051-3049-3, OCLC 318365881 
  131. Sternberg, Robert J. (2007), "Critical Thinking in Psychology: It really is critical", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F., Critical Thinking in Psychology, Cambridge University Press, p. 292, ISBN 0-521-60834-1, OCLC 69423179, "ตัวอย่างที่เสียหายที่สุดของความเอนเอียงเพื่อยืนยันเป็นงานวิจัยทาง parapsychology โดยเหตุผลแล้ว นี่เป็นสาขาการศึกษาที่ไม่มีข้อมูลสนับสนุนที่มีกำลังโดยประการทั้งปวง แต่เพราะว่า มีคนต้องการจะเชื่อ ดังนั้น จึงหาวิธีที่จะเชื่อ" 
  132. 132.0 132.1 Shadish, William R. (2007), "Critical Thinking in Quasi-Experimentation", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F., Critical Thinking in Psychology, Cambridge University Press, p. 49, ISBN 978-0-521-60834-3 
  133. PMID 11440947 (PubMed)
    Citation will be completed automatically in a few minutes. Jump the queue or expand by hand
  134. Shermer, Michael (July 2006), "The Political Brain", Scientific American, ISSN 0036-8733, สืบค้นเมื่อ 2009-08-14 
  135. PMID 21098355 (PubMed)
    Citation will be completed automatically in a few minutes. Jump the queue or expand by hand
  136. Horrobin 1990
  137. 137.0 137.1 Swann, William B.; Pelham, Brett W.; Krull, Douglas S. (1989), "Agreeable Fancy or Disagreeable Truth? Reconciling Self-Enhancement and Self-Verification", Journal of Personality and Social Psychology (American Psychological Association) 57 (5): 782–791, doi:10.1037/0022-3514.57.5.782, ISSN 0022-3514, PMID 2810025 
  138. 138.0 138.1 Swann, William B.; Read, Stephen J. (1981), "Self-Verification Processes: How We Sustain Our Self-Conceptions", Journal of Experimental Social Psychology (Academic Press) 17 (4): 351–372, doi:10.1016/0022-1031(81)90043-3, ISSN 0022-1031 
  139. Story, Amber L. (1998), "Self-Esteem and Memory for Favorable and Unfavorable Personality Feedback", Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) 24 (1): 51–64, doi:10.1177/0146167298241004, ISSN 1552-7433 
  140. White, Michael J.; Brockett, Daniel R.; Overstreet, Belinda G. (1993), "Confirmatory Bias in Evaluating Personality Test Information: Am I Really That Kind of Person?", Journal of Counseling Psychology (American Psychological Association) 40 (1): 120–126, doi:10.1037/0022-0167.40.1.120, ISSN 0022-0167 
  141. Swann, William B.; Read, Stephen J. (1981), "Acquiring Self-Knowledge: The Search for Feedback That Fits", Journal of Personality and Social Psychology (American Psychological Association) 41 (6): 1119–1128, ISSN 0022-3514 
  142. Shrauger, J. Sidney; Lund, Adrian K. (1975), "Self-evaluation and reactions to evaluations from others", Journal of Personality (Duke University Press) 43 (1): 94–108, doi:10.1111/j.1467-6494.1975.tb00574, PMID 1142062 
  • Baron, Jonathan (2000), Thinking and deciding (3rd ed.), New York: Cambridge University Press, ISBN 0-521-65030-5, OCLC 316403966 
  • Plous, Scott (1993), The Psychology of Judgment and Decision Making, McGraw-Hill, ISBN 978-0-07-050477-6, OCLC 26931106 
  • Risen, Jane; Gilovich, Thomas (2007), "Informal Logical Fallacies", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F., Critical Thinking in Psychology, Cambridge University Press, pp. 110–130, ISBN 978-0-521-60834-3, OCLC 69423179 

แหล่งข้อมูลอื่น ๆ[แก้]

  • Fine, Cordelia (2006), A Mind of its Own: how your brain distorts and deceives, Cambridge, UK: Icon books, ISBN 1-84046-678-2, OCLC 60668289 
  • Friedrich, James (1993), "Primary error detection and minimization (PEDMIN) strategies in social cognition: a reinterpretation of confirmation bias phenomena", Psychological Review (American Psychological Association) 100 (2): 298–319, doi:10.1037/0033-295X.100.2.298, ISSN 0033-295X, PMID 8483985 
  • Goldacre, Ben (2008), Bad Science, London: Fourth Estate, ISBN 978-0-00-724019-7, OCLC 259713114 
  • Hergovich, Andreas; Schott, Reinhard; Burger, Christoph (2010), "Biased Evaluation of Abstracts Depending on Topic and Conclusion: Further Evidence of a Confirmation Bias Within Scientific Psychology", Current Psychology 29 (3): 188–209, doi:10.1007/s12144-010-9087-5 
  • Horrobin, David F. (1990), "The philosophical basis of peer review and the suppression of innovation", Journal of the American Medical Association 263 (10): 1438–1441, doi:10.1001/jama.263.10.1438, PMID 2304222 
  • Kida, Thomas E. (2006), Don't believe everything you think: the 6 basic mistakes we make in thinking, Amherst, New York: Prometheus Books, ISBN 978-1-59102-408-8, OCLC 63297791 
  • Koehler, Jonathan J. (1993), "The influence of prior beliefs on scientific judgments of evidence quality", Organizational Behavior and Human Decision Processes 56: 28–55, doi:10.1006/obhd.1993.1044 
  • Kunda, Ziva (1999), Social Cognition: Making Sense of People, MIT Press, ISBN 978-0-262-61143-5, OCLC 40618974 
  • Lewicka, Maria (1998), "Confirmation Bias: Cognitive Error or Adaptive Strategy of Action Control?", in Kofta, Mirosław; Weary, Gifford; Sedek, Grzegorz, Personal control in action: cognitive and motivational mechanisms, Springer, pp. 233–255, ISBN 978-0-306-45720-3, OCLC 39002877 
  • Maccoun, Robert J. (1998), "Biases in the interpretation and use of research results", Annual Review of Psychology 49: 259–87, doi:10.1146/annurev.psych.49.1.259, PMID 15012470 
  • Mahoney, Michael J. (1977), "Publication prejudices: an experimental study of confirmatory bias in the peer review system", Cognitive Therapy and Research 1 (2): 161–175, doi:10.1007/BF01173636 
  • Nickerson, Raymond S. (1998), "Confirmation Bias; A Ubiquitous Phenomenon in Many Guises", Review of General Psychology (Educational Publishing Foundation) 2 (2): 175–220, doi:10.1037/1089-2680.2.2.175, ISSN 1089-2680 
  • Oswald, Margit E.; Grosjean, Stefan (2004), "Confirmation Bias", in Pohl, Rüdiger F., Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, Hove, UK: Psychology Press, pp. 79–96, ISBN 978-1-84169-351-4, OCLC 55124398 
  • Poletiek, Fenna (2001), Hypothesis-testing behaviour, Hove, UK: Psychology Press, ISBN 978-1-84169-159-6, OCLC 44683470 
  • Vyse, Stuart A. (1997), Believing in magic: The psychology of superstition, New York: Oxford University Press, ISBN 0-19-513634-9, OCLC 35025826