top of page

¿Qué son los riesgos catastróficos y existenciales? - Parte III: Importancia y Bibliografía

Actualizado: 15 abr 2022


Previamente delineamos cuáles son los riesgos catastróficos globales y los riesgos existenciales que amenazan el futuro de la humanidad a largo plazo. En este tercer artículo sobre riesgos catastróficos y existenciales haremos algunas observaciones clave sobre la probabilidad de cada tipo de riesgo. También hablaremos sobre cómo podemos contribuir para tratar de evitar este tipo de riesgos. Finalmente, enumeraremos algunas páginas web e institutos de investigación para leer e informarnos más sobre este tema.


No todos los riesgos son iguales


A pesar de que hayamos mencionado un gran número de riesgos catastróficos y existenciales, no debemos cometer el gravísimo error de pensar que todos son igual de probable que ocurran, o que sean igual de graves. Hay ciertos eventos que son potencialmente cientos de veces más probables que otros. Hay eventos que son cientos de veces más peligrosos que otros. Y finalmente, hay ciertos eventos en los que podemos intervenir o contribuir de forma cien o mil veces más eficiente que otros.


Recientemente, el filósofo de la Universidad Oxford Toby Ord ha utilizado una gran cantidad de material de investigación en variedad de áreas y disciplinas de estudio para asignar las siguientes probabilidades a los siguientes escenarios de riesgos existenciales, es decir, la probabilidad de que los siguientes eventos acaben provocando extinción de la humanidad en los próximos cien años. [i]

​Riesgo Existencial

Probabilidad aproximada de que cause nuestra extinción en los próximos cien años

Riesgos Naturales

Colisión de asteroide o cometa

1 en 1.000.000

Erupción supervolcánica

1 en 10.000

Explosión estelar

1 en 1.000.000.000

Total de riesgos naturales

1 en 10.000

​Riesgos Antropogénicos

Guerra Nuclear

1 en 1.000

Cambio climático

1 en 1.000

Otros daños ambientales

1 en 1.000

Pandemias "naturales"

1 en 10.000

Pandemias creadas artificialmente

1 en 30

Inteligencia artificial no-alineada

1 en 10

Riesgos antropogénicos no previstos

1 en 30

Otros riesgos antropogénicos

1 en 50

Total de riesgos antropogénicos

​1 en 6

Total

Total de riesgo existencial

1 en 6

¿Qué nos enseñan estas aproximaciones estadísticas? La lección más importante que debemos aprender de ellas es que los riesgos creados por el hombre (llamados riesgos antropogénicos) son muchísimo más altos que los riesgos naturales. Esto quiere decir que la causa más probable de la extinción de la humanidad es alguna tecnología creada por la humanidad misma.


Si bien existe riesgo a extinguirnos por algún medio natural, si los comparamos con el riesgo de las causas antropogénicas, nos daremos cuenta de que tenemos tiempo para lidiar con ellos. Si un meteorito de riesgo existencial va a caer sobre nuestro planeta en medio millón de años, es posible que la humanidad siquiera esté viviendo en la Tierra, o que tengamos una tecnología extremadamente efectiva para lidiar con él.


En comparación, apenas tenemos tiempo - unas décadas, o como mucho, unos siglos - para lidiar con los riesgos antropogénicos. Si las estimaciones de Ord son más o menos correctas, la humanidad tiene una probabilidad de extinción de 1 en 6 cada siglo. Esto es equivalente a tirar un dado cada siglo, donde sacar entre 1 y 5 significa sobrevivir un siglo más, pero sacar un 6 significa extinguirnos, acabando con todo el potencial que podría haber desarrollado la humanidad por el resto de los tiempos. Esto nos debe motivar a invertir recursos y esfuerzo para reducir el nivel de riesgo actual.


Además, no tenemos mecanismos evolutivos o culturales que nos permitan aprender de estos riesgos, ya que un solo evento de magnitud existencial acabaría con todos nosotros. Generalmente las personas y la humanidad empiezan a aprender a lidiar con un problema cuando se equivocan y así aprender su lección para la próxima vez que ocurra un acontecimiento parecido. Sin embargo, la humanidad jamás podrá aprender su lección tras una catástrofe existencial, pues un solo acontecimiento de este tipo acabará con la humanidad para siempre.


¿Qué podemos hacer?


La situación resulta preocupante cuando nos damos cuenta que, anualmente, gastamos más dinero en helados que en prevenir todos estos riesgos catastróficos y existenciales. Es decir, nos importa más el helado que proteger a la humanidad de su extinción. [ii] El organismo internacional que se dedica a regular las armas biológicas tiene un nivel de ingresos anuales de millón y medio de dólares, menos dinero que lo que cuesta un restaurante de McDonalds. [iii]


Por lo tanto, podemos afirmar con seguridad que actualmente no se presta ni por asomo la suficiente atención a estos problemas.


Cómo colaborar con la prevención de riesgos catastróficos y existenciales


Aquí delineamos algunos métodos particularmente eficaces para reducir los riesgos catastróficos globales y existenciales:

  • Abandonar el método de "ensayo y error" para este tipo de riesgos y utilizar métodos prospectivos, estadísticos y de estimación en su lugar.

  • Fundar nuevas instituciones para ayudar a la prevención y resiliencia ante este tipo de riesgos, así como y elaborar métodos, modelos y programas para lidiar con este tipo de riesgos.

  • Establecer protocolos internacionales de prevención de riesgos existenciales. Tales protocolos se podrían establecer como extensiones de derechos ya establecidos. Por ejemplo, dado que el derecho a la vida se considera fundamental como Derecho Humano y como derecho protegido por las constituciones de los países, se puede lograr utilizar como base para la justificación de la importancia de lograr la supervivencia nuestra especie. Por lo tanto, basar ciertos mecanismos internacionales para la reducción de estos riesgos en este criterio de protección del derecho a la vida.

  • Trabajar y donar a instituciones de prevención de riesgos catastróficos globales o existenciales. Es crucial reducir el nivel de riesgo invirtiendo económicamente en instituciones y programas de reducción de riesgo, invirtiendo nuestras energías laborales o intelectuales (nuestro trabajo o nuestra investigación académica) en la prevención de estos riesgos.

  • Votar y promover a candidatos políticos que tengan estos riesgos en mente para reducirlos, no que los aumenten. Muchos políticos tienen una gran influencia en temas de seguridad nuclear, prevención del cambio climático, así como de ubicar financiación para desarrollar tecnologías seguras. Ciertos cambios políticos llevan a los científicos del Boletín de Científicos Atómicos (Bulletin of the Atomic Scientists) a calibrar su "reloj del juicio final" (Doomsday Clock) como muy cercanos a un acontecimiento catastrófico. El nivel se ha ido ajustando año tras año, y actualmente estamos más cerca que nunca.

  • En particular para riesgos catastróficos, trabajar en estrategias de respuesta y resiliencia ante tales eventos. Por ejemplo, instituciones que se dediquen a asegurar nuestras necesidades básicas (comida, agua, transporte, electricidad) en caso de catástrofe.

Leer más


Páginas web


Algunas páginas para leer más sobre riesgos catastróficos globales y existenciales son las siguientes.


En español, aunque aún existe poco material al respecto, recomendamos leer:

En inglés:

Institutos de Investigación


También existen varios institutos de investigación en inglés sobre estos riesgos, incluyendo:

Libros


Algunos de los libros más influyentes sobre riesgos catastróficos globales y existenciales son los siguientes.


En español, aunque algo desactualizados:

  • Rees, Martin (2019) En el futuro. Perspectivas para la humanidad.

  • Rees, Martin (2004) Nuestra Hora Final. ¿Será el siglo XXI el último de la humanidad?

En inglés:

  • Ord, Toby (2020) The Precipice.

  • Posner, Richard (2004) Catastrophe: Risk and Response.

  • Bostrom, Nick (ed.) (2008) Global Catastrophic Risks.

  • Leslie, John (1996) The End of the World: The Science and Ethics of Human Extinction.

  • Bostrom, Nick (2002) Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards.

  • Beckstead, Nick (2013) On the Overwhelming Importance of Shaping the Far Future.

Por supuesto, también existen obras, tanto libros como artículos, que analizan un riesgo existencial en específico, como la posibilidad de la guerra nuclear o de la inteligencia artificial no alineada. Elaboraremos sobre estos riesgos catastróficos globales y existenciales particulares en artículos futuros.

 

[i] Ord, Toby. (2020) The Precipice. p. 167. Existen otras estimaciones por parte de algunos institutos de investigación. Sin embargo, la estimación de Ord es de más recientes, actualizadas e influyentes.


[ii] Ord, Toby. (2020) The Precipice p. 58.


bottom of page