CIENCIA

Cinco ideas clave sobre el desconocimiento que hay en la gestión de crisis

De la diversidad de ángulos que tiene esta cuestión se pueden resaltar algunos problemas epistemológicos

Alberto Sanz

Pamplona - Publicado el

5 min lectura

      
      
             
      

El físico de la Universidad Pública de Navarra, Joaquín Sevilla, explica en COPE Navarra cinco ideas sobre el desconocimiento en la gestión de crisis. La desgracia ocurrida en Valencia con la DANA vuelve a traer al panorama actual las gestiones de las crisis.

Están ya desatados algunos políticos con el aprovechamiento de la debilidad emocional de la ciudadanía para colocar sus mensajes: qué si la AEMET predice mal, qué si Mazón esperó demasiado, que si el gobierno central debería haber quitado el mando al autonómico, que si Mercadona obligó a trabajadores a meterse en situaciones de peligro evidente, etc. Esos mensajes pueden ser más o menos verdaderos, algunos mucho más que otros, pero comparten ser todos mensajes de parte. De hecho, los encontramos más en la bronca mediática y de redes sociales que en una auténtica conversación que busque el análisis honesto de puntos de mejora para próximas emergencias.

De la diversidad de ángulos que tiene esta cuestión me interesa resaltar algunos problemas epistemológicos: Quien sabe qué, con qué nivel de certeza, cómo tomar decisiones con información incompleta y, lo quizá más interesante, cómo de todas estas preguntas equivocamos las respuestas cuando las revisamos desde el conocimiento de lo que realmente pasó, es decir, desde una información mucho más completa pero extemporánea. Aunque no se llame oficialmente así podríamos bautizarlo como el sesgo cognitivo del capitán a posteriori. Intento desarrollar estas ideas en cinco puntos

1.- La información científica llega hasta donde llega: se puede saber que la probabilidad de lluvias potencialmente destructoras es altísima, pero no se sabe si ocurrirán con total certeza y menos en qué lugares y a qué horas qué intensidades. Sencillamente no se puede, igual que no se puede decir cuando va a entrar en erupción un volcán, cuando va a haber un terremoto o surgir una zoonosis. ¿Nos parece irrelevante lo que sí se sabe? Porque se puede predecir que ocurrirán algunos de estos eventos y en algunos hasta acotar el lugar con margen de pocas semanas.

2.- La prevención de riesgos potenciales tiene costes. La principal medida de protección de la población es decretar la suspensión de actividades y recomendar a las personas que dediquen todo su esfuerzo a ponerse en situación segura (ir a casa y no salir, a sitios altos, etc.). Eso no es gratis, la actividades productivas, comerciales, educativas o de ocio, en resumen, lo que solemos llamar "la economía" se para ante esa orden. Y eso tiene un coste; pequeño para cada agente individual, pero considerable para la colectividad.

3.- Errores de tipo 1 y de tipo 2. Las decisiones perfectas no existen. A la hora de juzgar sospechosos habrá casos en que se dejen culpables en libertad y otros en que se encarcele a inocentes. Según como se diseñen, los procedimientos judiciales serán más probables unos u otros. En el caso de las emergencias ante catástrofes naturales estamos en la misma situación, podemos decretar una alarma, con el perjuicio económico que conlleva, y que luego resulte que no fue necesaria (error tipo 1) o podemos no avisar a tiempo en casos en que sí era necesario (error tipo 2). (A estos dos tipos de errores se les llama en estadística de tipo 1 y de tipo 2, o falso positivo y falso negativo). La forma de tomas las decisiones, los protocolos (en caso de existir) harán más probables un tipo de errores u otros. Sospecho que hay un sesgo ideológico aquí, que una opción política es más proclive a un tipo de errores y la otra al contrario, pero no tengo datos fidedignos para afirmarlo.

      
      
             
      

4.- La calidad de la información científica y la probabilidad de decidir acertadamente. Sin duda, cuanto mejor sea la información científica en cuanto a su fiabilidad predictiva, más fácil es tomas la decisión correcta, pero sabemos que esa calidad tiene limitaciones importantes. En esa interfaz entre científicos y políticos es clave que ambas partes estén en su sitio: los científicos dando la información más fiable disponible, advirtiendo de su grado de fiabilidad con la mayor transparencia (y no metiéndose en sugerencias respecto de la decisión), los políticos aceptando la información y ponderando el grado de fiabilidad (y absteniéndose de criticar la ausencia de mejor precisión).

Las causas de las limitaciones para que la ciencia pueda predecir lo que va a suceder: “En cuanto entra el ser humano…”

5.- El sesgo cognitivo del capitán a posteriori. "A huevo visto, macho seguro" sería la idea en versión de refranero castizo (ganadero). La idea es que el juicio sobre lo acertado de una decisión se hace sabiendo lo que ha ocurrido, pero es crucial darse cuenta de que en el momento de decidir no se sabe si la situación final va a ser una u otra. Una vez que ha pasado el tiempo es obvio lo que había que haber hecho, ahora sí sabes si la catástrofe ocurrió y con qué severidad. El conocimiento preciso y la decisión ocurren en tiempos necesariamente diferentes. Psicológicamente, es muy difícil ponerse en el papel de alguien que no sabe algo que tu sí sabes, quizá imposible. Como pasa con los sesgos cognitivos, saber que existen no hace que los dejemos de sufrir, para lidiar con ellos hace falta una tarea racional compleja. No tengo pruebas de que se haya estudiado este tema realmente como un sesgo, pero como si lo fuera (ya escribí sobre esto y su posible relación con la dificultad para gestionar lo desconocido).

A modo de conclusión se pueden sacar un par de ideas de este análisis (pretendidamente objetivo o, cuando menos, abstracto y desapasionado) de la situación. Para mí la principal es que hay que ser más empático con los distintos agentes que participan en estas crisis, hay que asumir su legítima ignorancia. No pueden saber todo lo que nos gustaría que supieran, ni la ciencia proporciona mejores certezas, ni la política protocolos más afinados. La segunda tiene que ver con preferencias, en este mundo de abundancia, prefiero los falsos negativos, mejor avisos que no eran necesarios, que falta de prevención cuando sí conviene. Mejor perder "economía" que vidas. Pero seguro que eso ya lo sabía el capitán a posteriori, ahora al menos.

Temas relacionados