top of page

¿Qué son los riesgos catastróficos y existenciales? - Parte II: Riesgos Existenciales

Actualizado: 15 abr 2022



En el artículo anterior, definimos y analizamos los riesgos catastróficos globales, los cuales suponen una grave reducción temporal en la prosperidad y el bienestar de gran parte o la totalidad de la humanidad. Estos riesgos incluyen potenciales guerras nucleares, pandemias creadas por el ser humano, guerras biológicas, escenarios de cambio climático extremos y algunas catástrofes naturales altamente destructivas.


En este artículo analizaremos los riesgos existenciales. Estos riesgos son aún más graves que los catastróficos, ya que amenazan a toda la humanidad de forma permanente con la posibilidad de su extinción.


Riesgos Existenciales


Definición


A diferencia de los riesgos catastróficos globales, los riesgos existenciales son aquellos que amenazan la existencia misma de la humanidad. Es decir, amenazan con la extinción de nuestra especie.


Estos riesgos son más improbables que los riesgos catastróficos, ya que tendrían que acabar con todos los seres humanos del planeta, alcanzando todos los rincones de La Tierra. Sin embargo, representan un nuevo y mayor nivel de peligro, pues podrían fin a todo el potencial que la humanidad podría haber desarrollado y de todas las posibles generaciones futuras que podrían llegar a existir si sobrevivimos.


Si se extinguiese el 99% de la humanidad, podríamos lograr repoblar el planeta a lo largo de arduas generaciones. Existiría la posibilidad de volver a desarrollarnos social y tecnológicamente, y, eventualmente desarrollar tecnología que nos permita llevar a cabo viajes espaciales y así establecer colonias en otros planetas, lo cual nos haría más resilientes a la amenaza de la extinción.


Sin embargo, si se extinguiese el 100% de la humanidad, todo el potencial que podríamos haber desarrollado como especie se perdería para siempre, junto con todas las experiencias positivas que la humanidad podría tener por el resto de su existencia. En las secciones siguientes desarrollamos los riesgos existenciales que presentan el mayor nivel de peligro, ya que tienen mayores probabilidades de suceder que otros riesgos distintos.


Nanotecnología y biotecnología incontrolables


En un futuro cercano es probable que desarrollemos una tecnología como los nanorobots. Estos robots diminutos programados se podrían usar tanto para fines positivos como negativos. En su uso positivo, se podrían utilizar para reparar heridas u órganos y para ayudar a prevenir o curar enfermedades, haciendo al cuerpo humano mucho más resiliente de lo que lo es en la actualidad.


Sin embargo, debemos pensar también en los usos negativos posibles de la nanotecnología, que lamentablemente no son difíciles de ver. Por ejemplo, si creamos nanorobots que destruyan materia orgánica o que utilicen materia orgánica para multiplicarse, se podría llegar a que estos robots fuesen un nuevo tipo de virus que atacaría o devoraría a todos los seres orgánicos con los que se cruce. Si los nanorobots son un virus más podrían ser contenidos, pero si su letalidad o su índice de reproducción es muy superior a los virus convencionales podrían llevar a la extinción de la humanidad o de todos los seres orgánicos del planeta.


No es difícil pensar en un escenario análogo con la biotecnología. En este caso, en lugar de tratarse de un nanorobot, podría tratarse de un virus o una bacteria modificados para un experimento o un uso militar. Si el virus es altamente contagioso y letal podría acabar con gran parte o la totalidad de la humanidad.


Inteligencia Artificial desalineada


Otro riesgo existencial es lo que algunos expertos llaman una inteligencia artificial fuerte desalineada con los intereses humanos ("Misaligned Strong AI"). Hasta ahora, el ser humano solo ha desarrollado inteligencia artificial débil ("Weak AI"), que solo supera al ser humano en operaciones muy concretas y específicas , como los cálculos matemáticos, jugar al ajedrez o al Go, o el reconocimiento facial. Sin embargo, a medida que la inteligencia artificial logre una mayor capacidad de reconocimiento de patrones para su propio aprendizaje, es posible que se alcance una inteligencia artificial fuerte ("Strong AI"), la cual podrá realizar todas las actividades que un ser humano puede realizar en la actualidad.


Si el problema quedase aquí, quizás no ocurriría nada preocupante. El problema, como algunos expertos en inteligencia artificial ya han advertido, es que la inteligencia artificial fuerte sea capaz de programarse a sí misma a un nivel que supere a los programadores humanos. Esto permitirá que tal inteligencia artificial entre en un círculo virtuoso exponencial de mejora. La máquina se programará y se volverá más inteligente, volviéndose Máquina+1. Esa Máquina+1 se programará y se volverá más inteligente, volviéndose Máquina+2, luego Máquina+3, Máquina+4... y así sucesivamente. Y no se puede saber, a priori, qué límite tendrá tal inteligencia artificial. Los teóricos de la inteligencia artificial llaman a esto una Superinteligencia. [i]


Si esto ocurre, la inteligencia de una máquina de este tipo podría superarnos, dejando al ser humano atrás, a un nivel de inteligencia comparable al de un chimpancé contra un ser humano. Si bien el chimpancé tiene un nivel de inteligencia similar al de un niño humano de tres años, los chimpancés no son capaces de crear ciudades, aviones o internet. De la misma forma, una Superinteligencia podrá desarrollar, a su vez, tecnologías nuevas que aún no podemos ni imaginar. Por ello, algunos dicen que la Superinteligencia será el último invento que la humanidad necesitará crear. [ii]


Sin embargo, ¿cómo sabemos que la Superinteligencia tendrá unos valores éticos aceptables a la hora de programarse y tomar sus propios cursos de acción? ¿O que desarrollará tecnologías o cambios en el planeta que sean similares a los que la humanidad quiere? Una máquina no tiene una naturaleza humana compartida con nosotros, ni un aprendizaje cultural similar al nuestro. Si sigue reglas morales - en el sentido relevante para una máquina, esto son reglas de conducta, qué hacer y qué no hacer, a qué prestar atención y qué ignorar - será porque:

  • Se las habremos programado previamente y de una forma que no sea capaz de acceder para modificar o eliminar, en cuyo caso las aplicará dogmáticamente y con consecuencias imprevisibles para nuestra inteligencia más limitada.

  • O debido a su inteligencia superior podría engañar a las personas para que le permitan autoprogramar sus propias reglas de conducta, las cuales reprogramará para fines que nos resultan completamente desconocidos.

  • O, si se lo permitimos, creará sus propias reglas morales desde un principio, que no tienen por qué parecerse en absoluto al comportamiento humano o animal, debido a su naturaleza no-biológica, completamente distinta a la nuestra.

Esto es lo que se llama una inteligencia artificial desalineada. La máquina no está alineada con los valores humanos o los valores que queremos que tenga. Esto, sumado a su inteligencia superior, podría significar que la Superinteligencia sería la nueva "especie dominante" en nuestro planeta.


En cualquier caso, la programación de valores éticos y patrones de conducta aceptables en máquinas es una disciplina extremadamente importante para el futuro de la humanidad. Cuanto antes reflexionemos sobre ello en profundidad y hagamos consciente a la gente de la urgencia problemas, mejor. Actualmente, se invierten grandes sumas de dinero en inteligencia artificial, pero se invierte muy poco en que tales tecnologías sean seguras.


Distopías irreversibles


También se incluyen dentro de los riesgos existenciales aquellos que, sin llevarnos a la extinción, podrían dañar permanentemente el potencial futuro de la humanidad y nuestra posibilidad de mejorar como civilización. Ello supone un bloqueo permanente al desarrollo de la civilización, lo que podríamos llamar una distopía irreversible y permanente.


Esta es una situación que se da cuando, por algún motivo, como la utilización de alguna tecnología aún desconocida, la humanidad no puede escapar una situación civilizatoria totalitaria que se perpetúa indefinidamente. Un gobierno u organización militar podría utilizar alguno de estos riesgos catastróficos o existenciales como arma de negociación para imponer algún tipo de "gobierno mundial" dictatorial. Si un país o una organización posee armas nucleares, nanorobots o biotecnología altamente peligrosos o Inteligencia Artificial desalineada, podría utilizar tal tecnología selectivamente o como amenaza para imponerse frente al resto de la humanidad por un tiempo indeterminado y en principio indefinido.


Sin embargo, y a pesar de que un gobierno de este tipo se podría mantener durante décadas, cientos o incluso miles de años, este tipo de totalitarismo tendría que gozar de una estabilidad verdaderamente extraordinaria para lograr imponerse como riesgo existencial permanente.


Riesgos impredecibles


Finalmente, podemos incluir otra serie de riesgos fuera de nuestro control. Los principales incluyen la posibilidad de desarrollar tecnologías que son totalmente desconocidas en la actualidad, pero que en un futuro podrían suponer grandes riesgos para la humanidad.


Otro de estos riesgos es la posibilidad una especie alienígena tecnológicamente más avanzada y hostil hacia nosotros destruya la humanidad. No podemos saber la probabilidad de tal riesgo sin conocer cómo de común es la vida en el espacio exterior, y, particularmente, cuántas especies pueden llegar a desarrollarse en civilizaciones que lleguen al espacio con viaje intergaláctico y que nos encuentren en la franja de tiempo de la existencia de la humanidad, la cual es extremadamente breve en comparación a la historia del universo. Extrapolando de la Tierra, estas especies serían una gran minoría.


Sin embargo, la posibilidad de tal riesgo nos debería llevar a ser cautos antes de darnos a conocer en el espacio exterior. Ya hemos enviado ondas de radio al espacio para que alguna civilización alienígena nos pueda detectar. Esto, desde la perspectiva de los riesgos existenciales, es irresponsable, pues no sabemos qué clase de valores y conducta podría tener una civilización extraterrestre más avanzada que la nuestra.


No todos los riesgos son iguales


En la tercera parte de este artículo, hablaremos de qué riesgos existenciales son más importantes, dado que no todos estos riesgos tienen la misma probabilidad de ocurrir. Y en en el caso de los riesgos catastróficos, tampoco la misma gravedad.


Finalmente, haremos una enumeración de algunas páginas web recomendadas para leer más sobre este tipo de riesgos, y sobre algunos institutos de investigación que han surgido recientemente para dedicarse a investigar, analizar, realizar predicciones prospectivas y protocolos de acción sobre riesgos globales.


Leer Parte 3.

 

[i] Bostrom, Nick (2016) Superinteligencia: Caminos, Peligros, Estrategias. TEELL.

Russell, Stuart (2019) Human Compatible: Artificial Intelligence and the Problem of Control. Penguin Books. También recomendamos ver el canal de Youtube de Robert Miles. (en inglés)


[ii] Es lo que da el título al libro Our Final Invention: Artificial Intelligence and the End of the Human Era, de James Barrat

bottom of page