Por qué nunca te pondrás de acuerdo con tu cuñado, según la psicología experimental
Tenemos una alta probabilidad de llegar precisamente a las conclusiones que nos dan la razón. Esto es porque no razonamos neutralmente, sino que tenemos la motivación extra de confirmar nuestras creencias previas
Fernando Blanco 16/04/2019
En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí
¡Hola! El proceso al procés arranca en el Supremo y CTXT tira la casa through the window. El relator Guillem Martínez se desplaza tres meses a vivir a Madrid. ¿Nos ayudas a sufragar sus largas y merecidas noches de fiesta? Pincha ahí: agora.ctxt.es/donaciones
Los psicólogos y psicólogas ya estamos muy acostumbrados a la idea de que las personas no somos del todo racionales en nuestras decisiones. Sí, nombres como Kahneman y Tversky, o Gigerenzer, ya han traspasado la frontera de nuestra disciplina y hasta gozan de bastante celebridad en las redes y en sitios de divulgación científica. Como han mostrado los experimentos, resulta que, cuando nos ponen delante un argumento que “parece” correcto pero no lo es, caemos como moscas. Si nos piden que tomemos una decisión de compra-venta, picamos ante la trampa más tonta. Vaya panorama, ¿eh?
Conviene, sin embargo, distinguir entre dos formas de equivocarse. Por un lado, está lo que llamamos “error aleatorio”. Como vemos en la imagen, es un error que se distribuye al azar: un disparo demasiado desviado hacia arriba se compensa con otro que se ha desviado en la dirección opuesta. Si sumáramos todos los errores (la distancia de cada disparo con respecto a la diana), se anularían entre sí, y el error medio sería cero.
Pero lo divertido, e interesante, es que los humanos a menudo nos equivocamos de otra manera. De manera “predecible”, no aleatoria. Sería lo que llamamos “error sistemático”: en la diana de abajo, los disparos se desvían sistemáticamente hacia el cuadrante superior izquierdo, en vez de repartirse al azar por todo el espacio. Es un tipo de error interesante porque encierra un patrón, un orden que podemos desentrañar. En el contexto del razonamiento humano, a este tipo de error sistemático, predecible, lo llamamos “sesgo cognitivo”.
Como había avanzado antes, el tema de los sesgos cognitivos es uno de esos “super-hits” de la psicología. Hay muchísimas investigaciones que nos demuestran cómo las personas somos muy susceptibles a caer en este tipo de errores predecibles, en un motón de contextos. Recomiendo encarecidamente leer a Dan Ariely y a Daniel Kahneman, que ilustran elocuentemente estas limitaciones en sus respectivos libros divulgativos.
Una de las cuestiones que nos ha llamado la atención es la del “razonamiento motivado”, que podría resumirse como sigue: Cuando razona, la gente tiene una alta probabilidad de llegar precisamente a las conclusiones que le dan la razón. Y esto es porque no razonamos en abstracto, neutralmente, considerando argumentos a favor y en contra… sino que tenemos la motivación extra de confirmar nuestras creencias previas y de seguir pensando que somos coherentes.
Seguro que esto ya os suena: si leo el periódico, el Twitter o lo que sea, le daré credibilidad a las noticias y a los posts que coinciden con mi manera de pensar. Toda evidencia que me pongan delante y que no encaje con mi visión del mundo será probablemente desterrada por “parcial”, “interesada”, “fake news”, o como queráis llamarlo. En otras palabras, tenemos incorporado una especie de “filtro ideológico” que protege nuestras ideas y creencias.
Este tipo de razonamiento motivado aparece sobre todo en asuntos políticos “que nos toquen la fibra”, donde tenemos opiniones muy arraigadas y nos cuesta ponernos en el lugar del otro. Pensad hasta qué punto llegamos cuando la misma acción (por ejemplo, evadir impuestos) a veces se juzga de manera completamente distinta cuando el infractor no me despierta ninguna simpatía (por ejemplo, un político que no me gusta) que cuando es alguien a quien admiro (la estrella de mi equipo de fútbol favorito).
En 2017, Kahan llevó a cabo una investigación sobre razonamiento motivado particularmente reveladora. Reunió a un grupo de participantes (estadounidenses) y les mostró una tabla con datos numéricos supuestamente extraídos de una estadística de EE.UU. La tabla se parecía un poco a la que tenéis debajo: en este caso, de un total de 20 estados donde se han impuesto restricciones al uso de armas, en 18 de ellos ha bajado la tasa de criminalidad, mientras que de los 24 estados donde el uso de armas no está limitado, sólo en 4 de ellos se ha reducido dicha tasa. Haciendo los números, os vais a dar cuenta de que estos apoyan la idea de que imponer restricciones al uso de armas tiene un efecto reductor del crimen. ¡Es lo que dicen los números! Fácil, ¿eh?
…Pues no. O depende, más bien. Resulta que aquellas personas que inicialmente estaban a favor de legislar contra el uso libre de armas no tuvieron problema en interpretar los datos correctamente, para apoyar su posición. Sin embargo, las personas que tenían la opinión contraria (estaban en contra de limitar el uso de armas) dijeron ser incapaces de extraer una conclusión de los datos, o bien los interpretaron de forma errónea. Y no, no es que estos participantes fueran especialmente torpes con los números, ya que, si los mismos datos se ofrecían en un contexto totalmente neutral, no tenían problema en hacer el razonamiento correcto. Es decir: esto es más bien un “sé que el resultado de esta cuenta no me va a gustar, así que me voy a hacer el loco”, una especie de anumerismo selectivo, que aparece solo cuando nos conviene.
Moviéndonos a otra literatura diferente, pero relacionada, podemos encontrar otro sesgo cognitivo que llamamos “ilusión causal”, al que hemos dedicado muchos estudios. La ilusión de causalidad consiste, simplemente, en creer que una cosa es causa de otra, cuando en realidad no están conectadas. Por ejemplo, en un experimento típico, le pedimos a los participantes que pulsen un botón para ver si se enciende una luz. Aunque la luz se apaga y se enciende al azar, muchas personas pueden acabar convencidas de que están controlándola a través del botón.
En nuestras investigaciones, hemos comprobado cómo este sesgo, la ilusión causal, aparece en todo tipo de personas, aunque algunos factores la pueden aumentar o reducir. Así, un día nos hicimos la siguiente pregunta: ¿Y si la ilusión causal también tuviera un componente “motivado”? Es decir, ¿y si la ilusión apareciera, o se volviera más fuerte, cuando nos da la razón, mientras que se debilitaría en aquellas situaciones en las que nos lleve la contraria?
Como era una pregunta aparentemente interesante, nos pusimos manos a la obra para estudiarla experimentalmente. Con este fin, desarrollamos una tarea online (una especie de videojuego) en el que el participante ve cómo un partido político en el gobierno (en una situación ficticia) va tomando una serie de decisiones que van luego seguidas de mejoras en los indicadores económicos del país, aunque no siempre sea así: a veces los indicadores no mejoran. Tras ver una serie de acontecimientos como el descrito, los participantes deben juzgar hasta qué punto lo hecho bien el gobierno: de 0 (rematadamente mal) a 100 (perfectamente bien).
En el fondo, la historia tenía trampa: realmente no había relación entre las acciones del gobierno y los indicadores. Si algún participante creyera que sí la había, estaría mostrando una ilusión de causalidad. Es lo mismo que sucedía en los experimentos clásicos con el botón y la luz.
Realmente, este experimento se repetía dos veces para cada participante, con una diferencia: en una de las ocasiones, el partido se describía como de derechas, mientras que en la otra ocasión se describía como de izquierdas. A este tipo de manipulación la llamamos “encuadre”, y pensamos que podría afectar a los resultados: aquellos participantes con una ideología de izquierdas tenderían a ser más benévolos con el partido que coincide con ellos ideológicamente, y viceversa. Recordemos: el juego estaba programado de forma que el gobierno no tenía ninguna capacidad de mejorar los indicadores, así que la respuesta correcta era en todos los casos cero. ¿Cambiaría mucho la respuesta de los participantes en función de su afinidad ideológica con un gobierno ficticio, a pesar de estar viendo todos exactamente los mismos datos?
Primero realizamos este estudio en una muestra de 88 ciudadanos y ciudadanas españoles. Los resultados que mostramos en la figura fueron en la dirección esperada: los participantes de derechas sobrestimaron la eficacia del gobierno de derechas, pero no tanto la del gobierno de izquierdas, mientras que los participantes de izquierdas mostraron justamente el patrón contrario.
De todas maneras, como nunca está de más replicar los resultados para ver si son robustos, decidimos repetir el estudio, aunque esta vez con una muestra de ciudadanos y ciudadanas de Reino Unido, donde esperaríamos encontrar el mismo resultado. Además, aprovechamos para duplicar el tamaño de la muestra, que siempre viene bien.
Como veis, los resultados fueron prácticamente idénticos, aunque ahora más claros gracias al mayor tamaño muestral.
¿Qué podemos concluir de este estudio? Lo primero es una confirmación más del llamado “filtro ideológico”: La misma información puede interpretarse de formas radicalmente opuestas, dependiendo de tus creencias previas. “Todo depende del color del cristal con el que se mira”, como suele decirse, aunque en este caso, corroborado experimentalmente. Por cierto: aquí no se libra nadie. Ni de derechas, ni de izquierdas. El sesgo selectivo que hemos encontrado aparece a lo largo de todo el espectro ideológico. Así que la próxima vez que nos metamos en un debate en Internet o en la cena de nochebuena, no nos ensañemos señalando el sesgo en nuestros adversarios… porque probablemente nosotros también estamos igual de sesgados, solo que en otra dirección. De hecho, como muestran investigaciones similares, esto nos pasa hasta a los científicos.
En segundo lugar, tenemos una evidencia de que la ilusión causal, un sesgo cognitivo ampliamente estudiado, puede tener un componente “motivacional”. Es decir, que puede aparecer selectivamente: volverse más fuerte allí donde encaja con las creencias previas, y minimizarse o desaparecer allí donde las contradice. La ilusión sería una especie de “escudo” que llevamos con nosotros y que usamos para filtrar la información que nos encontramos. Y todo ello sin aparentemente darnos cuenta de nuestro propio sesgo. Habrá que investigar más.
Si tenéis interés en conocer más detalles de esta investigación, podéis consultarla aquí. Está en acceso abierto, y tanto los datos como los materiales del estudio son descargables públicamente.
--------------------
Fernando Blanco es profesor de la Universidad de Deusto.
¡Hola! El proceso al procés arranca en el Supremo y CTXT tira la casa through the window. El relator Guillem Martínez se desplaza tres meses a vivir a Madrid. ¿Nos ayudas a sufragar sus largas y merecidas noches de...
Autor >
Fernando Blanco
Suscríbete a CTXT
Orgullosas
de llegar tarde
a las últimas noticias
Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí