Por aquí tenemos algunos, con información limitada, parcial e inexistente definiéndonos las vidas a todos los demás, según sean sus preferencias personales.

LA TIRANÍA DE LOS (SUPUESTOS) EXPERTOS

Por Barry Brownstein

American Institute for Economic Research
16 de abril del 2020


NOTA DEL TRADUCTOR: Para utilizar los ligámenes de las fuentes del artículo, entre paréntesis y en azul, si es de su interés, puede verlo en https://www.aier.org/article/the-tyr...leged-experts/

Piense, de nuevo, si usted cree que los controles draconianos recomendados por unos pocos expertos en medicina (pero, lejos de ser por todos) están salvando muchas vidas ante el COVID-19. Hechos reportados por el matemático Yitzhak Ben Israel de la Universidad Tel Aviv (Yitzhak Ben Israel of Tel Aviv University) no apoyan tales creencias.

El profesor Israel encontró que no importa qué tanto o qué tan poco los políticos pusieron en cuarentena a la población, “el coronavirus llegó a su cúspide y disminuyó en exactamente la misma forma.” Que el país haya descansado en políticos cerrando al país (por ejemplo, Estados Unidos y el Reino Unido) o en acciones privadas voluntarias (Suecia), el trabajo del profesor Israel muestra que “todos los países experimentaron patrones aparentemente idénticos de infección del coronavirus, con el número de personas llegando a un pico en la sexta semana y rápidamente disminuyendo desde la octava semana.”

En resumen, las medidas coercitivas impuestas para proteger al público del COVID-19 son tan efectivas como tirar “polvos de tigres” mágicos en el Parque Central, para mantener a los tigres alejados de Manhattan.

¿Por qué estamos tan enamorados con los expertos y sus polvos para tigres? Simplemente, no entendemos la falibilidad inherente a los seres humanos. Expertos bien intencionados pueden ser tan destructivos como políticos autoritarios.

El premio Nobel Daniel Kahneman es un economista del comportamiento y un psicólogo. En su libro Thinking, Fast and Slow [Pensar rápido, pensar despacio], escribe él: “Toda pregunta de política involucra supuestos acerca de la naturaleza humana, en particular acerca de las elecciones que las personas hacen y las consecuencias de sus elecciones, tanto para ellas como para la sociedad.” Supuestos errados o no examinados corrompen la toma de decisiones.

LOS EXPERTOS TIENEN SESGOS COGNITIVOS

En Pensar rápido, pensar despacio, Kahneman cataloga los muchos sesgos cognitivos que afectan a los seres humanos. Kahneman y su desaparecido compañero de investigación, Amos Tversky, “documentaron errores sistemáticos en el pensamiento de la gente normal y [ellos] trazaron esos errores al diseño de la maquinaria de cognición, en vez de la corrupción del pensamiento por la emoción.” En breve, “errores severos y sistemáticos” en la cognición nos impiden ser los pensadores racionales que nos gustaría pensar que somos.

Reportando acerca del trabajo del psicólogo Paul Slovic, Kahneman escribe, “[Slovic] probablemente sabe más acerca de las peculiaridades de la apreciación humana del riesgo, que cualquier otro individuo.”

Slovic halló que la “afectividad heurística” conduce a la gente a “que lo que le gusta o disgusta determina sus creencias acerca del mundo.” Si usted está sesgado hacia una fuerte acción gubernamental para combatir el coronavirus, usted cree que los “beneficios son sustanciales y sus costos más manejables que los costos de alternativas,” tales como descansar más en ajustes voluntarios por las empresas y el público.

Escribe Kahneman, “La afectividad heurística es un caso de sustitución, en donde la respuesta a una pregunta fácil (¿Cómo me siento en torno a eso?) sirve como respuesta a una pregunta mucho más difícil (¿Qué pienso yo acerca de eso?).”

La cobertura de los medios acerca del impacto del coronavirus está “sesgada hacia la novedad y el patetismo.” La reacción emocional resultante da forma a nuestras estimaciones de riesgo; muchos temen las consecuencias si no se imponen decisiones draconianas por el gobierno.

Si está pensando que esa es la razón por la que necesitamos confiar esas decisiones en expertos, usted estaría equivocado: Los expertos tienen los mismos sesgos cognitivos que el resto de nosotros.

Debido al sesgo de los expertos, Slovic “se resiste fuertemente al punto de vista de que los expertos deberían gobernar” y nos disuade de creer que “sus opiniones deberían ser aceptadas sin cuestionamiento, cuando entran en conflicto con las opiniones y deseos de otros ciudadanos.”

Kahneman es claro acerca de las implicaciones del trabajo de Slovic. El público y los expertos formuladores de políticas a menudo tienen valores en conflicto. El público distingue entre tipos de muertes, tales como la de un hombre de 90 años con problemas cardíacos y la de una madre de 30 años con buena salud. Los detalles se pierden en las estadísticas agregadas.

Kahneman concluye en que “Slovic asevera, a partir de esas observaciones, que el público tiene una concepción más rica de los riesgos que los expertos.”

El riesgo no es objetivo, escribe Kahneman, “En su deseo por arrebatarle a los expertos el control único de la política de riesgos, Slovic ha desafiado el fundamento de su experticia. Kahneman cita a Slovic:

“’El riesgo’ no es algo que existe ‘ahí afuera,’ independiente de nuestras mentes y cultura, esperando para ser medido. Los seres humanos han inventado el concepto de ‘riesgo’ para ayudarles a entender y hacerles frente a los peligros e incertidumbres de la vida. Aunque esos peligros son reales, no existe tal cosa como un ‘riesgo real’ o un ‘riesgo objetivo.’”

Nuestra evaluación del riesgo “puede haber sido guiada por una preferencia por un resultado u otro.” “Así, definir el riesgo es una exhibición de poder,” explica Slovic.

En otras palabras, sin importar qué tan sinceros son los expertos, sus preferencias por una acción decisiva de parte del gobierno deformarán sus concepciones de riesgo y guiarán sus recomendaciones de políticas.

No se engañe por la apariencia de confianza de parte de los expertos. Sus confianzas no es razón para confiar en ellos. Advierte Kahneman (Kahneman warns): “Profesionales demasiado confiados sinceramente creen que ellos tienen la experticia, para actuar como expertos y para aparecer como expertos. Usted tendrá que luchar para recordarse a sí mismo que ellos puede estar bajo control de una ilusión.”

EL ARROGANTE NO PUEDE RESOLVER PROBLEMAS

El filósofo Karl Popper famosamente señaló (Karl Popper famously observed), que “Nuestra ignorancia es ilimitada y decepcionante.” [Nota del Traductor: Segunda tesis de Las Ciencias Sociales de Karl Popper]

El mundo está lleno de problemas desafiantes, como el coronavirus, y los individuos poseen una ignorancia ilimitada. No sorprende que Popper creía (Popper believed) que “No existen fuentes últimas del conocimiento.” Sólo podemos “tener la esperanza de detectar y eliminar el error.” Detectamos y eliminamos el error al permitir la crítica de las teorías de otros y de las nuestras.

Popper nos brindó lo que podía ser un credo para los individuos humildes dispuestos a admitir los límites del conocimiento individual:

“Con cada paso adelante, con cada problema que resolvemos, no sólo descubrimos problemas nuevos y sin resolver, sino que también descubrimos que, justo cuando creíamos que estábamos parados en terreno firme y seguro, todas las cosas son, en realidad, inseguras e inestables." [Nota del Traductor: Karl Popper, En Busca de un Mundo Mejor].

El arrogante no puede resolver problemas pues es ciego ante sus límites. Quienes toman decisiones, consumidos por su soberbia, ignorantes de su conocimiento limitado, no aprovechan el conocimiento que otros tienen.

En verdad, cada uno de nosotros conoce muy poco. Como individuos, somos tomadores de decisiones falibles. No sabemos adónde emergerán las soluciones o, como nos instruye en esto el economista William Easterly en su libro The Tyranny of Experts, “cuál será la solución” o “quién tendrá la solución.”

DIVERSIDAD COGNITIVA

En su libro The Wisdom of Crowds [Cien Mejor que Uno], James Surowiecki explica que “no hay una evidencia real de que uno puede llegar a ser un experto en algo tan amplio como la ‘toma de decisiones’ o la ‘política.’”

Entre científicos quienes diariamente encaran un “torrente de información,” señala Surowiecki, la “reverencia hacia lo bien conocido tiende a ser acompañada por un desprecio de lo no tan bien conocido.”

Surowiecki no está afirmando que “la reputación debería ser irrelevante,” sin embargo, la reputación “no debería convertirse en la base de una jerarquía científica.” En vez de ello, “un compromiso definido con la meritocracia” alimenta el descubrimiento. En la crisis actual, en donde voces disidentes están siendo silenciadas, es duro ver cómo se confirma ese compromiso con la meritocracia.

Surowiecki apunta a la “diversidad cognitiva” como una clave para formar equipos que van más allá de la suma de sus miembros. Surowiecki da conclusiones contraintuitivas para aquellos quienes creen en la toma de decisiones por expertos de élite:

“Si usted puede ensamblar un grupo diverso de personas que posee diferentes grados de conocimiento e ideas, usted se encuentra mejor confiándole decisiones importantes, en vez de dejarlas en manos de una o dos personas, independientemente de qué tan inteligente sea esa gente.”

Surowiecki advierte acerca del pensamiento de grupo, que ocurre cuando, en grupos, enfatizamos “el consentimiento por encima del disentimiento.”

En un examen acerca de la toma de decisiones en la Administración Nacional para la Aeronáutica y el Espacio (NASA, por sus siglas en inglés), durante la catástrofe del transbordador espacial Columbia, Surowiecki encontró una lección lamentable: “En vez de hacer que la gente sea más sabia, estar en un grupo puede, en realidad, hacerla más tonta.”

En esa crisis, “los miembros del equipo fueron urgidos en muchas ocasiones distintas a recolectar la información que necesitaban para hacer una estimación razonable de la seguridad del transbordador.”

Ahí estaba la evidencia de las consecuencias potenciales del golpe de los desechos sobre el trasbordador Columbia.

No obstante, durante la reunión del grupo después que los desechos golpearon al Columbia, hubo “ausencia plena de debate y de opiniones de la minoría.”

El equipo podía haber formulado “elecciones diferentes que podían haber mejorado dramáticamente las posibilidades de que la tripulación sobreviviera,” sin embargo, “nunca se acercaron lo suficiente como para tomar la decisión correcta de qué hacer con el Columbia.”

¿Por qué? “En primer lugar, el equipo empezó, no con una mente abierta, sino partiendo del supuesto de que ya se había dado una respuesta a la cuestión de si un golpe de espuma podría dañar seriamente al trasbordador.” Explica Surowiecki:

“En vez de empezar con la evidencia y trabajar hacia una conclusión, los miembros del equipo trabajaron en dirección opuesta. Más atroz, su escepticismo acerca de la posibilidad de que algo podía estar realmente mal, les hizo descartar la necesidad de reunir más información.”

En la actualidad, durante la crisis del coronavirus, quienes toman las decisiones han empezado con la conclusión de que las consecuencias humanas de la economía son menos críticas que sus métodos preferidos de contención del virus.

En el caso del Columbia, la “convicción de que nada estaba mal, limitó la discusión e hizo que descontaran evidencia en contrario.” Todos nosotros, incluyendo los expertos, estamos sujetos al sesgo de confirmación, “que hace que los tomadores de decisiones inconscientemente busquen aquellos pedacitos de información que confirman sus intuiciones subyacentes.”

En equipos de toma de decisiones, escribe Surowiecki, “la evidencia sugiere que el orden en que hablan las personas tiene un efecto profundo sobre el curso de una discusión.” Agrega él, “Los primeros comentarios son más influyentes, y tienden a brindar un marco de acción dentro del cual se da la discusión. Como con una cascada de información, una vez que el marco de referencia está en su sitio, es difícil que alguien que disiente lo derribe.”

El Dr. Anthony Fauci, la Dra. Deborah Birx, y otros que recomiendan políticas, no son diferentes del resto de nosotros. Como nosotros, estos expertos no pueden ver rápidamente lo que ellos no saben. Kahneman y Slovic nos dirían que ellos están sujetos a los mismos sesgos cognitivos que los otros seres humanos. Ellos y los otros miembros del equipo no están exentos de las fragilidades humanas, tal como el deseo de poder. Tienden a ser demasiado confiados. Es posible que su experticia sea “espectacularmente estrecha.”

Surowiecki nos pide que consideremos por qué nos “adherimos tan estrechamente” a la falsa creencia “de que el experto correcto nos salvará.” ¿Por qué creemos que los expertos correctos de alguna forma cargan hacia adelante y demuestran su experticia superior?
Surowiecki nos señala una serie de estudios que encontraron que “los juicios de los ‘expertos’ no son internamente consistentes con los juicios de otros expertos en el área, ni internamente consistentes.”

Al mirar en una dirección, el resultado es el pensamiento de grupo. Surowiecki advierte que el pensamiento de grupo “funciona no tanto censurando el disentimiento, sino haciendo que el disentimiento parezca ser, de alguna forma, improbable.”

Hay una alternativa a tener políticos y expertos decidiendo cuando reabrir el país. Las decisiones tomadas en el mercado, por empresas e individuos, son naturalmente diversas cognitivamente. Provistos de información no censurada, cuando son libres de utilizar su conocimiento y sabiduría, ellos tomarán mejores decisiones que los expertos y políticos.

Barry Brownstein es profesor emérito de economía y liderazgo en la Universidad de Baltimore. Es contribuyente sénior de Intellectual Takeout y es autor de The Inner-Work of Leadership.