Thinking, fast and slow.

Es difícil escribir una reseña de Thinking, Fast and Slow, del psicólogo y premio Nobel de economía Daniel Kahneman. Es uno de esos libros maravillosos como GEB-EGB o La Nueva Mente del Emperador que hace falta que alguien que se lo haya leído te lo recomiende porque si no igual ni te enterabas de que existía. En este caso fue el inefable Julian quien me lo recomendó en mi último viaje a Londres y tengo que darle las gracias porque me ha gustado una burrada. El libro trata fundamentalmente de cómo la mente humana toma decisiones, sobre todo decisiones en las que existe un grado de incertidumbre respecto al resultado o que se prolongan en el tiempo. Habla del tipo de algoritmos que utilizamos para decidir, de los errores sistémicos más habituales existentes en esos algoritmos y de cómo podemos evitar caer en esos errores para tomar las decisiones razonables y no simplemente decisiones razonadas.

La primera tesis del libro es la coexistencia en nuestra mente de dos “sistemas” (que Dennett llamaría homunculi en Consciousness Explained) de pensamiento a los que denomina “sistema 1” y “sistema 2”. El sistema 1 es inmediato, intuitivo e instintivo, fácil de usar y de reacciones rápidas ante lo que ocurre a nuestro alrededor y es el que, en general, tiene el mando de la inmensa mayor parte de nuestra actividad. El sistema 2 es más lento y más pesado, requiriendo mucho más esfuerzo para ponerse en marcha, pero es lógico, analítico y racional y sus conclusiones son mucho más de fiar que las del Sistema 1. La mayor parte de las decisiones de la vida las toma, automáticamente, el sistema 1; y no estamos hablando sólo de cosas como mantener el equilibrio, hacer la digestión o retirar la mano del fuego, sino de verdaderas decisiones humanas, que requieren de obtención, análisis y proceso de información figurativa. El problema es que los seres humanos asociamos nuestro ego con el sistema 2 y, si se nos pregunta por qué tomamos una decisión determinada, decisión que en realidad no nos paramos a pensar sino que la tomamos automáticamente, daremos a nuestro interlocutor una explicación que confundiremos inmediatamente con una causa, a veces hasta el punto de crear un recuerdo artificial en el que valoramos las opciones (con el sistema 2, claro) y llegamos lógicamente a la conclusión que tomamos. Esto es así porque la alternativa “no pensé, la decisión se tomó automáticamente” es extremadamente desagradable en términos de disonancia cognitiva, incluso si añadimos la coletilla “porque no la consideré importante” ya que sugiere que, en realidad, no estamos a los mandos de nuestras decisiones, algo que el 99% de la humanidad da totalmente por sentado.

Por ejemplo, un error de los algoritmos del sistema 1 efecto muy conocido es el «efecto ancla» (anchoring effect) según el cual, dado un rango de posibilidades, la que se menciona cronológicamente la primera se «ancla» en la discusión que de ahí en adelante se desarrolla en torno a esa posibilidad: si estamos discutiendo un posible precio entre 100 y 200 y yo sugiero 115, el resto de la conversación se moverá entre 105 y 150, por ejemplo, pero nunca va a llegar a 185 a menos que la contraparte sea consciente de este efecto ancla y luche contra él (el libro dice como). Otro ejemplo es el efecto marco (framing effect) que hace que se tome una decisión diferente según su resultado se presente como un beneficio o un perjuicio. Por ejemplo, si una epidemia mortal afecta a 400 personas y tenemos la opción de aplicar el tratamiento A (que salva a 100 personas) o el tratamiento B (que ofrece un 25% de posibilidades de salvar a las 400 y un 75% de no salvar a ninguna), la inmensa mayor parte de la gente (72%) elige el tratamiento A. Sin embargo, si ante la misma epidemia hemos de elegir entre el tratamiento A (que deja morir a 300 personas) y el tratamiento B (que ofrece un 25% de posibilidades de que no muera ninguna y un 75% de que mueran las 400), solo el 22% de la gente elige el tratamient a pesar de que las dos situaciones ofrecen soluciones  matemáticamente idénticas. De hecho, cuando a la misma persona se le plantean ambas opciones en el contexto de un test más largo, tienden (65%) a caer en ese mismo patrón, incluyendo a médicos y epidemiólogos que, cuando son expuestos a este detalle y preguntados el porqué de sus elecciones (al sistema 2) , caen en general en un silencio embarazoso y avergonzado. Y este no es en absoluto el único sesgo cognitivo o defecto heurístico que describe (y prueba experimentalmente, el libro está plagado de referencias a diversos experimentos que sostienen sus tesis) sino que otros pueden incluir el efecto WYSIATI (lo que ves es todo lo que existe), el Efecto Linda (falacia de conjunción), o el fascinante efecto sustitución, en el que enfrentados a una pregunta complicada cuya respuesta desconocemos, tendemos a razonar por analogía, buscar una pregunta análoga (emocionalmente análoga) cuya respuesta sí que conocemos y darnos esa misma respuesta más o menos modificada mientras pensamos que, en realidad, lo que hemos hecho es responder a la primera pregunta. Esto explica, por ejemplo, por qué todo el mundo tiene ideas muy claras sobre una cuestión tan compleja como «¿qué debemos hacer para salir de la crisis?»: porque en realidad están contestando a algo del estilo de: «¿qué hace falta para que los efectos que yo percibo de la crisis, como que desahucien a mi vecino, que mi mejor amiga siga en paro, o que mi hermano no llegue a fin de mes, desaparezcan?» Si no me creéis, analizad las respuestas que da la gente a esa pregunta y decidme cuántas incluyen una proyección de las consecuencias a medio o largo plazo de la aplicación de las medidas que proponen…

Toda esta primera parte es fascinante, pero el libro no se queda ahí. La segunda tesis, consecuencia de la primera y básicamente por lo que tiene un Nóbel en economía, desmonta dos de las premisas básicas en las que se ha venido basando esta disciplina, a saber: la idea de que el mercado (y los operadores de mercado) toman siempre decisiones racionales; y el propio concepto de utilidad de Bernouilli, demostrando que la psicología y la economía estudian dos especies diferentes: la primera los seres humanos y la segunda una simplificación de estos a los que podríamos llamar «econs«. La tercera tesis defiende que dentro de nosotros existen dos yos: el «yo que siente» (experiencing self, el yo que experimenta, en el presente, el placer y el dolor) y el «yo que recuerda» (remembering self) que, a pesar de nunca sentir nada, es quien toma las decisiones respecto a qué y cómo vamos a sentir en el futuro. Ahora, los criterios y mecanismos a través de los cuales el «yo que recuerda» toma las decisiones no se parecen nada a lo que imaginaríamos; por ejemplo, sus «objetivos» no son, como cabría esperar, maximizar el placer y minimizar el dolor del «yo que siente» sino…

Y hasta aquí puedo leer. Espero haberos picado lo suficiente para que os lo leáis. Por lo que a mi respecta me parece un libro tan recomendable que, cuando había leído algo más de la mitad, ya había comprado otro ejemplar para regalárselo a Roweena por su cumpleaños y cuando me quedaban unas 50 páginas, encargué otros cuatro más para seguir regalándolos a diversa gente, uno de los cuales ya le ha caído a . Ya tardáis. En serio. Y como nota curiosa y para terminar de animaros, comentar que el otro día mi compañero filósofo Eduardo vino a casa a jugar una partida de República de Roma y me trajo de regalo de reyes… la traducción al castellano, cuya existencia yo hasta el momento desconocía. Pensar deprisa, Pensar Despacio, se titula, y va por la segunda edición. Así que ya no tenéis ni la excusa de que está en inglés. ¡Adelante!

«Buy it fast, read it slow. It will change the way you think

Contesta aquí

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: