¿Por qué es tan difícil cambiar de opinión?

Nos ocurre a todos. Cuando terminamos una discusión sin convencer a nuestro interlocutor creemos que no hemos argumentado con suficiente claridad nuestra postura, o bien sospechamos que la otra persona no ha querido comprenderla. Algo es casi seguro: Al final del debate pensamos lo mismo que al principio, porque nuestra opinión, estamos seguros, es la correcta.

Visto que nadie está dispuesto a cambiar de ideas, y para evitar discutir más de lo necesario, tendemos a rodearnos de personas que comparten nuestros puntos de vista.

La inclinación a pensar que tenemos razón es parte de un conocido mecanismo que domina la mente humana. Fijamos la atención en las pruebas que respaldan nuestras ideas e interpretamos la evidencia disponible de la forma más favorable para nuestras hipótesis. El cerebro, además, tiende a pasar por alto y olvidar fácilmente las pruebas y los argumentos en nuestra contra.

Por eso es difícil convencer a un creyente de que dios no existe, a un naturópata de que la homeopatía no cura y a los votantes de un partido político de que sus propuestas no son la solución. Parece que son impermeables a nuestros argumentos y no ceden un centímetro de sus convicciones cuando les contradecimos, a pesar de que nosotros, obviamente, tenemos razón.

El sesgo de confirmación domina el mundo. Les domina a ellos y, lo que es peor, también a nosotros.




UN MUNDO SESGADO

Filtramos nuestra experiencia para que la realidad se amolde a aquello que nosotros pensamos que debe ser. El ejemplo más intuitivo de ese fenómeno es la tendencia a ver coches de la misma marca que queremos comprar. Esa experiencia nos reafirma. Es el mejor coche, pensamos, porque lo ha comprado mucha gente. Y damos menos importancia a todos los automóviles de otras marcas que circulan a nuestro lado.

Otro modo de adaptar la realidad a nuestro punto de vista consiste en recuperar hechos de la memoria de manera selectiva. Recordamos mejor los hechos que encajan con nuestras creencias y modificamos ligeramente los recuerdos que las podrían poner en entredicho.

Si me duele el estómago, por ejemplo, tiendo a recordar que esos síntomas se han aliviado en alguna ocasión después de tomar una manzanilla, pero no tengo en cuenta las veces en las que he tomado una manzanilla sin una mejora. Esa forma automática de gestionar la memoria refuerza la creencia previa de que la manzanilla alivia las molestias de estómago.

La tendencia a retorcer la experiencia de la realidad para hacerla encajar con nuestros prejuicios no solo afecta a las decisiones cotidianas, también es uno de los mayores peligros que acechan a los científicos.

Su tarea es analizar el mundo para intentar detectar regularidades, pero el sesgo de confirmación instalado en su cerebro actúa en contra de una visión desapasionada y empuja hacia sus propios intereses personales.

Confirmar una hipótesis quizás permita al investigador obtener una beca, publicar en una revista de prestigio o ascender en el escalafón universitario. Pedir a un científico que sea riguroso y desapasionado es, por lo tanto, pedir mucho, aunque no es pedir lo imposible.

NATURE SE EQUIVOCA

La historia de la ciencia está repleta de errores derivados del sesgo de confirmación. Uno de los más célebres es el que cometió el químico francés Jacques Beneviste a finales de la década de 1980, cuando publicó en Nature un estudio en el que concluía que el agua tiene memoria y puede recordar las propiedades de una sustancia con la que ha estado en contacto, aunque ya no esté presente. Su investigación dio pie al auge de la homeopatía.

Nature somete los estudios que aparecen en sus páginas a un proceso de corrección conocido como revisión por pares. Investigadores de la misma disciplina que los autores del estudio -esos son los “pares”- evalúan la metodología y las conclusiones del trabajo.

En el caso de Beneviste, los científicos que analizaron su estudio no detectaron fallos, a pesar de que sus hallazgos eran increíbles. La propia revista imprimió junto al artículo original una nota en la que expresaba su incredulidad ante las conclusiones, aunque decidió seguir adelante con la publicación.

Los fallos salieron a la luz, sin embargo, cuando se intentó reproducir los experimentos del bioquímico francés ante testigos que no formaban parte de su grupo de investigación.

El trabajo original aseguraba que unas gotas de agua que había estado en contacto con cierta sustancia eran capaces de afectar a un tipo de glóbulos blancos (basófilos), aunque ya no hubiera una sola molécula de la sustancia inicial en el agua.

La tesis del francés se vino abajo cuando científicos imparciales se dieron cuenta que los cambios en los glóbulos blancos eran estrictamente subjetivos. Para alcanzar las conclusiones del trabajo publicado en Nature, la jefa del laboratorio de Beneviste, Elisabeth Davenas, se encargaba de observar al microscopio las muestras de basófilos y determinaba a ojo si había variado su forma en contacto con el agua supuestamente con memoria.

El problema es que Davenas estaba convencida de que la hipótesis inicial era correcta y no se establecieron barreras contra el omnipresente sesgo de confirmación.

Al repetir el experimento, se controló ese peligro con muestras ciegas. La investigadora ya no sabía de antemano qué muestras habían sido expuestas al agua milagrosa y cuáles no. El sesgo de confirmación ya no podía funcionar, porque la Davenas ya no estaba influenciada por la tendencia inconsciente a detectar variaciones en los basófilos de las muestras adecuadas para que su hipótesis resultara válida.

Con esa protección adicional, las conclusiones de Beneviste no se sostíenan. No existía diferencia alguna entre los basófilos que habían estado en contacto con el agua mágica y aquellos que habían estado en contacto con agua normal.




¿ENGAÑO O ERROR?

Mentimos de forma constante, a los demás y a nosotros mismos, pero la mayoría de las veces no nos damos cuenta.

Un abogado acumula la mayor cantidad posible de evidencias a favor de su cliente y oculta las pruebas que le incriminan. Lo hace de forma consciente, igual que los charlatanes que venden curas milagrosas, cuando saben que son un engaño.

Nuestro cerebro actúa como abogado de nosotros mismos, aunque no le hayamos dado permiso para hacerlo. Con el paso del tiempo, retenemos los recuerdos y la información que nos beneficia, pero hemos pasado por alto y olvidado lo que juega en nuestra contra.

Ese engranaje mental es en parte aquello que lleva a algunas personas a creer afirmaciones que ellas consideran demostradas más allá de toda duda, aunque la evidencia en su contra sea abrumadora.

Las personas religiosas pueden tener crisis de fe después de un desastre natural que deja miles de muertos. En un primer momento, ponen en duda que un dios omnipotente y bondadoso pueda existir ante tal catástrofe. Con el paso de los días, sin embargo, el recuerdo de la tragedia se difumina y regresan al primer plano sus creencias iniciales, aunque un dios omnipotente y bondadoso sea lógicamente incompatible con la tragedia de la que fue testigo.

ANTECEDENTES HISTÓRICOS

El filósofo británico Francis Bacon identificó en 1620 el problema que supone ese mecanismo mental casi inevitable. “Una vez el entendimiento humano ha adoptado una opinión, supedita todos lo demás a prestarle apoyo”, escribió Bacon, consciente de que esa trampa mental amenaza tanto a las decisiones cotidianas como a la validación de hipótesis científicas.

Lo explicó de forma aún más clara el psicólogo estadounidense Louis Leon Thurstone a principios el siglo XX: “Si no nos jugamos nada en una disputa entre dos conocidos, somos lo bastante inteligentes como para valorar las pruebas con imparcialidad y alcanzar una conclusión razonable. Nos podeos decantar hacia cualquier de las dos partes en la disputa. Sin embargo, en caso de que en la pelea intervengamos nosotros, amigos nuestros o familiares, perdemos nuestra capacidad de comprender al otro bando”.

MECANISMOS DEL ERROR

Uno de los engranajes principales que nos lleva a caer en el error es restringir nuestra atención hacia la hipótesis preferida. Eso no significa que ignoremos por completo la información contraria, sino que somos memos receptivos a las pruebas que no apoyan nuestras creencias y dedicamos menos energías a tratar de desacreditarlas que a apoyar aquello que nos interesa.

Dicho de otro modo, tendemos a confirmar nuestras hipótesis, pero no a intentar falsarlas. Ese mecanismo psicológico quedó desenmascarado en diversos experimentos de los años 60.

En uno de ellos, a los participantes se les presentaban los números 2-4-6, y se les pedía que descubrieran la regla en la que estaba basada esa secuencia. La mayoría llegaba en pocos segundos a la conclusión de que se trata de una serie de números pares consecutivos.

Para poner a prueba su hipótesis, proponían otras secuencias construidas a partir de la misma regla y comprobaban, preguntando a los investigadores, si eran correctas. 20-22-24, correcta. 4-6-8, también correcta. 232-234-236, igualmente perfecta.

Muchos no caíen en la cuenta, sin embargo, de que podía haber secuencias de números que también eran correctas y no cumplían su sencilla norma. Si hubieran probado con 231-232-233, por ejemplo, también hubieran recibido una respuesta afirmativa.

La norma que habían previsto de antemano los investigadores, y que los participantes debían descubrir, dictaba en realidad que serían correctas todas las secuencias en las que los números se incrementaran. 2-34-123 también era correcta.

Peter Wason, que ideó el experimento, resumió así sus hallazgos: “Parece que hay pruebas sólidas que indican que incluso los individuos inteligentes se adhieren a sus propias hipótesis con remarcable tenacidad cuando son capaces de poner sobre la mesa alguna prueba afirmativa que las sustenta”.

FALSAR VS. VERIFICAR

En la concepción actual del método científico, es más importante intentar falsar una hipótesis que tratar de verificarla. Un solo cisne negro, sin embargo, basta para echar por tierra decenas de miles de observaciones que sugerían que todos los cisnes son blancos.

El sesgo de confirmación puede sin embargo alterar esa lógica demoledora del cisne negro. Es probable que un naturalista convencido desde la infancia de que todos los cisnes son blancos, se niegue a tomar en serio la observación que pone en duda una hipótesis en la que ha creído toda su vida. Puede convencerse a sí mismo y tratar de convencer a los demás de que el colega que vio el cisne negro no lo observó correctamente. Quizás sus prismáticos distorsionaron los colores. O quizás el animal negro que vio no era en realidad un cisne, sino un ave parecida.




La tendencia a dar más peso a los enunciados que confirman una creencia que a aquellos que la refutan no solo afecta al método científico, tambíen inunda nuestra vida cotidiana. Es uno de los mecanismos, por ejemplo, que sirven de muleta a los astrólogos que redactan horóscopos para que compremos sin dudarlo sus predicciones.

Cuando uno de esos futurólogos describe nuestro carácter en base a la posición de los planetas cuando nacimos, lo hace a partir de rasgos vagos. Sabe que vamos a tomarnos intentar confirmar lo que dice y hacer encajar sus generalidades en características reales de nuestro carácter. Además, se puede permitir el lujo de fallar en algunas de sus descripciones, porque los creyentes en la astrología serán indulgentes con los fallos.

Los que confían en el horóscopo interpretan todo aquello que concuerda con la imagen que tienne de sí mismos como pequeñas pruebas a favor de la capacidad sobrenatural del astrólogo. Al mismo tiempo, están dispuestos a pasar por alto algunos errores.

DESCUBRIR PATRONES QUE NO ESTÁN AHÍ

Se puede ir un paso más allá en esa distorsión de la realidad. No solo tendemos a ignorar los fallos, nuestra mente también puede inventar los aciertos cuando no están ahí realidad.

En 1950, el psicólogo estadounidense Harold Kelley separó a un grupo de estudiantes universitarios en dos aulas, donde un profesor invitado les iba a ofrecer una charla. A los alumnos de la primera clase, Kelley les advirtió de que ese profesor era una persona “bastante fría”, mientras que al otro grupo les avanzó que la charla iba a correr a cargo de un profesor “bastante cálido”.

El mismo profesor impartió la misma clase en las dos aulas, tras lo cual los estudiantes dieron su opinión sobre la charla. Sus respuestas sirvieron a Kelley para demostrar que las expectativas creadas ante de la conferencia condicionaron su opinión posterior.

Las notas con las que los alumnos calificaron al profesor fueron más altas entre la clase que había asistido a la charla cálida. No solo eso: La actitud de los jóvenes hacia el invitado fue distinta. Los alumnos del profesor descrito de antemano como cálido se mostraron más proclives a interactuar con él en la clase, mientras que el profesor frío fue juzgado mayor indiferencia.

En el ámbito de la salud, el sesgo de confirmación puede acentuar los peores miedos de un hipocondríaco. El cuerpo humano produce continuamente innumerables señales que, al ser tomadas en consideración, podrían ser síntoma de alguna enfermedad.

La gente tiende a ignorar esos signos cotidianos, como un ligero dolor en el costado o un leve mareo al levantarnos del sofá, porque son frecuentes y no suelen provocar mayores molestias. Sin embargo, si alguien sospecha de antemano que puede estar enfermo, el más leve síntoma puede servirle de apoyo para confirmar su hipótesis.

Tres psicólogos estadounidenses (Woods, Matterson y Silverman) investigaron ese fenómeno e inauguraron lo que desde entonces se conoce como el “síndrome del estudiante de medicina”. En su experimento, comprobaron que el 70 % de los jóvenes en el primer año de la carrera de medicina descubren en sí mismos los síntomas de al menos una de las enfermedades que han estudiado.

Esos trabajos y otros similares indican que las personas buscamos patrones y rasgos en la realidad que cumplan nuestras expectativas. Lo que uno ve, en definitiva, depende de lo que uno espera ver. Por eso siempre solemos tener razón. Porqué, desde nuestro punto de vista, el mundo tiende a confirmar nuestras creencias.

 


BIBLIOGRAFÍA

Nickerson, Raymond S. (June 1998). “Confirmation Bias: A Ubiquitous Phenomenon in Many Guises”. Review of General Psychology. 2 (2): 175–220. doi:10.1037/1089-2680.2.2.175.

Asher Koriat, Sarah Lichtenstein y Baruch Fischoff. Reasons for Confidence. Journal of Experimental Psychology: Human Learning and Memory. March 1980

Kelley, H.H. The warm-cold variable in first impressions of persons. Journal of Personality, 18. pg 431-439 (1950)
L.L. Thurstone, The Nature of General Intelligence and Ability. British Journal of Psichology. 1924. P101
Nickerson, R. S. (2008). Aspects of rationality: Reflections on what it means to be rational and whether we are. New York: Psychology Press.

Woods S.M., Natterson J., Silverman J., Medical students’ disease: hypochondriasis in medical education. Journal of Medical Education, Aug, 1966. p785-90.

Bacon, F. 1620(1939). Novum Organum. En “The English Philosophers from Bacon to Mill. (New York: Random House). pg 36

Duhn D., Children and adults as intuitive scientit. Psychological Review. October 1989. 674-89

Peter Cathcart Wason, On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology. Volume 12. 1960.

Bryan Magee. Karl Popper (Modern masters). Viking Adult. 1973

 

https://wp.me/p7iBBP-dV

Post Your Thoughts