Esa es la tesis que exponen los autores Chris Clearfield y András Tilcsik en el libro “Meltdown, Why Our Systems Fail and What We Can Do About It“.
Todos los desastres relatados en Meltdown comparten características primero identificadas por el sociólogo Charles Perrow. Ahora ya con más de 90 años, Perrow se ganó el apodo de “maestro del desastre” por su importantísimo estudio de una cantidad de incidentes en escenarios de alto riesgo, el primero de los cuales fue el de Three Mile Island, la estación de generación nuclear en 1979. “En la visión de Perrow,” explican Clearfield y Tilcsik, “el accidente no fue un acontecimiento anormal sino un rasgo fundamental de la planta nuclear como sistema.”
Este sistema — y por cierto cada uno de los sistemas descriptos en los desastres que presenta Meltdown — es complejo y de fuerte acoplamiento: complejo porque los sistemas no son lineales, con partes que a veces interactúan en modos escondidos; y fuertemente acoplado porque si hay un fallo en alguna parte rápidamente ese fallo afecta a otras partes.
Clearfield y Tilcsik dicen que hay en el mundo una inmensa cantidad de sistemas cada vez más complejos y fuertemente acoplados, incluidas las plataformas de redes sociales, los sistemas de manejo de diques, los programas computarizados de trading, los pozos petroleros en aguas profundas y los cajeros automáticos. Y todos corren cada vez más riesgo de colapsar.
“La complejidad y el acoplamiento de funciones convierte a estos fracasos en cada vez más probables y más serios”, dicen, “y nuestros cerebros y organizaciones no están hechos para hacer frente a ese tipo de sistemas.”
Pero afortunadamente la mayor parte del libro está dedicada a las soluciones, y también a dar algunas reflexiones que parecen contrarias a la lógica pero que vale la pena considerar. Una de ellas es que sumar funciones de seguridad para proteger los sistemas de un colapso agrega complejidad, y esto los vuelve más vulnerables al fracaso, no menos.