3 ¿Cómo saber qué no es verdad? - Estrategias Para Pensar
Estrategias para pensar. Un curso para razonar mejor y tomar decisiones creativas en equipo.
Capítulo Tres: ¿Cómo saber qué no es verdad?
“Según un estudio, las personas groseras son más inteligentes” “Comer este alimento
te dará un abdomen plano”, “La Tierra es plana”, “Millonario comparte su fortuna:
haz click aquí” Es increíble que la gente sea tan ingenua para creer esas cosas.
Es cierto. Pero también es cierto que todos somos susceptibles a caer en errores de la
mente…
Algunas personas no caemos TAN fácil…
Con mucha frecuencia saltamos a conclusiones equivocadas creyendo que son completamente
lógicas ¿recuerdas el ejemplo del yo-yo y la cuerda?
Ejem…
¡Ja ja ja ja!
Es muy común sobreestimar nuestras capacidades. De hecho se ha estudiado un efecto llamado
“El efecto Dunning-Kruger”. Se ha demostrado que, mientras menor sea el
conocimiento que tenemos en un área, más tendemos a creer que sabemos mucho. Las personas
que más conocimiento tienen, son más conscientes de lo que ignoran.
Además tenemos una tendencia a responder rápido, con la información que tenemos disponible.
¿Puede darnos un ejemplo?
Hagamos este acertijo...
En la superficie de este lago hay plantas acuáticas. Cada día, la población de plantas
se duplica. Le tomó a la la planta 48 días cubrir la totalidad del lago. ¿Cuántos días
le tomó cubrir la mitad?
¡Aghh! Estuve a punto de decir que 24 días: la mitad del tiempo.
¡Pues es lógico que sea 24 porque…! ¡Ah, no! ¡Son 47 días! En el último día la
planta, que ya había cubierto la mitad de la superficie, se duplica y cubre la totalidad
del lago. ¡Arrh! ¡Ya me demostró que soy tonto! ¿Ahora qué?
¡Ja ja ja! No es que seas tonto. Todos podemos cometer ese error.
El psicólogo Daniel Kahneman lo explica en su libro “Pensar rápido, pensar despacio”.
Kahneman explica que, al momento de resolver problemas o tomar decisiones, en nuestra mente
operan dos sistemas. El Sistema 1 tiene esquemas predefinidos de
respuesta. Por lo tanto actúa muy rápido. Se deja llevar por la intuición y funciona
la mayor parte del tiempo. Por otro lado, está el Sistema 2. Éste es el que analiza
las cosas cuidadosa y lentamente. Pero es muy flojo: le cuesta trabajo ponerse en acción.
Estos dos sistemas no son partes físicas del cerebro ni entes independientes: son sólo
representaciones de dos modos de enfrentarnos a las situaciones.
Una manera sencilla de que distingas cómo actúan los dos sistemas es respondiendo a
las siguientes dos preguntas… Primera pregunta: ¿Cuánto es 2 x 4?
La respuesta te vino a la mente muy rápido: ese es tu sistema 1 en acción.
Segunda pregunta: ¿Cuánto es 14 x 37? Si eres como la mayoría de las personas,
esta pregunta te tomó más tiempo. Incluso tuviste que tomarte un momento para decidir
si la contestabas o no o quizá ni la contestaste: ese es el comportamiento del Sistema 2.
Pero si el sistema 1 se equivoca tan fácil ¿por qué lo usamos?
El recurrir al sistema 1 es conveniente porque es muy rápido ¡y funciona la mayor parte
de las veces! Imagina que eres un hombre primitivo explorando la llanura.
Ves la huella de un depredador y oyes un ruido de pasos en la hierba. ¡Inmediatamente formas
en tu mente la idea de peligro y te pones a resguardo! Es más conveniente reaccionar
rápido que estar en lo correcto. Si después te das cuenta de que las huellas
eran viejas y que los pasos los hacía un animal inofensivo, no pasa nada.
Pero si te hubieras detenido a pensar y resulta que sí había peligro ¡las consecuencias
podrían ser fatales! La evolución favoreció nuestra facultad de reconocer patrones y reaccionar
rápidamente. El problema es que, en efecto, nos puede llevar
a conclusiones equivocadas, reforzando estereotipos y creencias equivocadas.
Intentemos el siguiente ejercicio: Hay una ciudad con 100 mil personas, que se dedican
a muchas actividades diferentes y tienen diferentes modos de pensar. Escojamos a una persona al
azar. Resulta que se llama Miguel. Esta es su descripción:
“Miguel tiene 28 años. Es muy estudioso, trabajador y siempre sacó buenas calificaciones.
Es introvertido, soñador, imaginativo y prefiere actividades tranquilas e individuales, como
leer y dibujar, que las actividades ruidosas. Es meticuloso y ordenado.”
¿Cuál de las siguientes afirmaciones es más probable?
A. Miguel es cajero bancario B. Miguel es cajero bancario y aficionado
a los cómics. (TIEMPO PARA PENSAR)
¿Cuál escogiste? Probablemente tu Sistema 1 se adelantó a
pensar que la opción B, pero si convenciste al al Sistema 2 de que se pusiera a trabajar,
verás que la más probable es la opción A. No es una opinión, es una verdad matemática.
Piénsalo así: Si este es el conjunto de cajeros bancarios
en la ciudad y este el conjunto de aficionados a los cómics, la conjunción de ambos, cajero
y aficionado a los cómics necesariamente es menor (o cuando mucho igual) a cualquiera
de los dos conjuntos. Este tipo de errores del pensamiento es un
sesgo cognitivo, y hay muchos como para enumerarlos todos. Estos son algunos de los sesgos más
comunes a los que nos empuja nuestro apresurado Sistema 1:
El efecto halo: Sucede cuando juzgamos a la totalidad de una
persona a partir de las primeras características que le conocemos.
Es muy común que pensemos que una persona atractiva y pulcra sea también confiable
o amable, por ejemplo. Si un alumno saca mala calificación en un
trabajo al principio del curso, es muy probable que el profesor siga calificándolo duramente
aunque la calidad de sus trabajos mejore. Si un político nos gusta o nos disgusta desde
un principio, es muy difícil que sus acciones futuras cambien nuestro punto de vista.
Hay estudios que demuestran una clara a tendencia a creer como verdaderas afirmaciones que están
escritas con una letra clara, grande y formal en comparación con afirmaciones que están
escritas con letra pequeña y poco formal ¿Cuál de estas dos afirmaciones es la verdadera:
(“La Segunda Guerra Mundial acabó en 1943” “La segunda Guerra Mundial acabó en 1946”).
Respuesta: ninguna. La Segunda Guerra Mundial acabó en 1945.
Sesgo de confirmación. Ocurre cuando buscamos y recordamos información
que refuerza nuestros esquemas mentales e ignoramos aquella que los contradice.
Por ejemplo, si creemos que cierto grupo social es más propenso a la violencia, recordaremos
más fácilmente las noticias donde dicho grupo fue violento e ignoraremos aquellas
en las que fueron generosos o responsables. Efecto de arrastre.
Tiene lugar cuando adoptamos una opinión sólamente porque mucha gente la tiene.
Daniel Kahneman dice: "Para algunas de nuestras creencias más importantes no tenemos la menor
evidencia fuera de que las personas a quienes creemos y en las que confiamos mantienen esas
creencias" "Las personas pueden mantener una fe inquebrantable en una afirmación, por
absurda que sea, si se sienten respaldadas por una comunidad con su misma mentalidad"
La aversión a la pérdida. Somos muy renuentes a perder algo que tenemos
o en lo que ya hemos invertido. Imagina que has gastado mucho dinero en poner
un negocio. De repente te das cuenta de que el lugar en
el que te instalaste es terrible y que lo más probable es que no ganes nada.
Aunque lo más conveniente sería dar por perdido lo que invertiste y así evitar perder
más en el futuro, tu aversión a la pérdida probablemente te empuje a continuar con el
negocio “porque ya le invertiste mucho”. Algo parecido pasa a veces en las relaciones
de pareja... Una excepción curiosa sucede si simplemente
cambiamos el lenguaje en el que se expresa una proposición.
Piensa en las dos siguientes propuestas: ¿Aceptarías entrar a un juego donde tienes
90 por ciento de posibilidades de perder 50 pesos y 10 por ciento de posibilidades de
ganar 950 pesos? ¿Comprarías un boleto de 50 pesos para una
rifa de 10 boletos donde puedes ganar 1000 pesos?
¿Cuál te parece mejor? (TIEMPO PARA PENSAR)
¿Ya te diste cuenta de que las dos propuestas son exactamente la misma? Aún así, la mayor
parte de la gente prefiere la opción B. Si en vez de “perdida” le llamamos “comprar”,
“costo” o ”precio” al gasto efectuado, de repente nos parece mucho más aceptable.
Otros errores del pensamiento son las falacias lógicas… por ejemplo:
La afirmación del consecuente. Partiendo de una premisa verdadera, una deducción
lógica sería así: Todos los peces tienen branquias
El lenguado es un pez Por lo tanto, el lenguado tiene branquias.
Todo bien ahí. Pero a veces cometemos el error de poner invertir las conclusiones…
Todos los peces tienen branquias Los pulpos tienen branquias
Por lo tanto los pulpos son peces. Lo cual es una conclusión equivocada…
Causalidad falsa Es cuando pensamos que, como dos eventos suceden
uno después del otro, entonces el que ocurrió primero debe ser la causa y el que ocurrió
después la consecuencia. Muchos de nuestros esquemas mentales funcionan relacionando causas
y consecuencias, por lo que es muy fácil incurrir en esta falacia.
Este mes aumentó la venta de helados Este mes aumentaron los accidentes.
La venta de helados provocó un aumento en los accidentes este mes.
Si es que hay una correlación entre los dos eventos, no necesariamente es que uno haya
causado el otro: puede ser que los dos tengan una causa común o que de hecho, no tengan
vínculo alguno y la correlación sea pura casualidad.
Por ejemplo, esta es la cantidad de películas en las que ha aparecido Nicolas Cage cada
año… y la cantidad de personas que ha muerto ahogada en piscinas… Eso se llama “correlación
espuria”. ¿Nunca has pensado que, como usaste cierta
prenda cuando ganó tu equipo, fue la prenda la que “trajo suerte” para el triunfo?
¿O que, como te tomaste cierto remedio durante una gripe y la enfermedad se acabó, fue el
remedio el que cortó la enfermedad? En el último caso podría ser que hubiera
una relación, pero no necesariamente: muchos factores pudieron haber influido en la remisión
del padecimiento, y un sólo caso es una muestra demasiado pequeña para sacar conclusiones
(64) Para llegar a conclusiones válidas, los científicos hacen estudios estadísticos
comparando grupos y controlando los factores que podrían o no influir en los efectos obtenidos..
Falso dilema. En nuestro pensamiento cotidiano, solemos
trabajar en términos binarios: si la puerta no está abierta, está cerrada. Si el tren
no está aquí, está en otro lugar. Esta lógica funciona bien en muchas situaciones,
pero no en todas. Probablemente esta sea de las falacias más peligrosas, porque lleva
a afirmaciones como estas, que son a todas luces falaces:
“Si no estás con nosotros, estás a favor del terrorismo”
“La única manera de ganar es que el otro pierda”
“¿Aceptas pelear o eres un cobarde?” La manera de desmontar este argumento es presentar
otras opciones: ¿Hay maneras de oponerse al terrorismo que no impliquen apoyar a ese
político específico? ¿Hay maneras de salir beneficiado de una negociación sin derrotar
a la otra parte? ¿Hay maneras de resolver un conflicto valientemente que no signifiquen
pelear? Casi siempre, la respuesta es sí. Las falacias son muchas, te invitamos a investigar
más. En la descripción de este video te dejamos algunos enlaces interesantes.
Es muy claro cómo los políticos y los publicistas se pueden aprovechar de los errores del pensamiento
para hacernos creer cosas.
Y esto nos puede ayudar a debatir mejor, porque podemos detectar fallas en los argumentos
de otros cuando estemos discutiendo.
Y más importante: detectar fallas en nuestro propio pensamiento ¡Eso es lo más difícil!
Somos muy buenos encontrando los errores en el pensamiento de los demás y pésimos encontrando
los errores en nuestro propio pensamiento.
¿La idea es que siempre pensemos con el Sistema 2?
Ja ja ja ¡No! Eso sería imposible. No podríamos ni hacer las cosas más sencillas si todo
lo estuviéramos cuestionando. La recomendación es mejorar nuestra capacidad para reconocer
situaciones en la que es probable que cometamos errores. “La voz de la razón puede ser
mucho más tenue que la voz alta y clara de la intuición errónea”
En cualquier caso, detectar estos errores nos puede ayudar a tomar mejores decisiones.
¡Achí ech!
Humm, muchas veces las decisiones no son individuales, sino que involucran a más personas, eso lo