En el artÃculo anterior, definimos y analizamos los riesgos catastróficos globales, los cuales suponen una grave reducción temporal en la prosperidad y el bienestar de gran parte o la totalidad de la humanidad. Estos riesgos incluyen potenciales guerras nucleares, pandemias creadas por el ser humano, guerras biológicas, escenarios de cambio climático extremos y algunas catástrofes naturales altamente destructivas.
En este artÃculo analizaremos los riesgos existenciales. Estos riesgos son aún más graves que los catastróficos, ya que amenazan a toda la humanidad de forma permanente con la posibilidad de su extinción.
Riesgos Existenciales
Definición
A diferencia de los riesgos catastróficos globales, los riesgos existenciales son aquellos que amenazan la existencia misma de la humanidad. Es decir, amenazan con la extinción de nuestra especie.
Estos riesgos son más improbables que los riesgos catastróficos, ya que tendrÃan que acabar con todos los seres humanos del planeta, alcanzando todos los rincones de La Tierra. Sin embargo, representan un nuevo y mayor nivel de peligro, pues podrÃan fin a todo el potencial que la humanidad podrÃa haber desarrollado y de todas las posibles generaciones futuras que podrÃan llegar a existir si sobrevivimos.
Si se extinguiese el 99% de la humanidad, podrÃamos lograr repoblar el planeta a lo largo de arduas generaciones. ExistirÃa la posibilidad de volver a desarrollarnos social y tecnológicamente, y, eventualmente desarrollar tecnologÃa que nos permita llevar a cabo viajes espaciales y asà establecer colonias en otros planetas, lo cual nos harÃa más resilientes a la amenaza de la extinción.
Sin embargo, si se extinguiese el 100% de la humanidad, todo el potencial que podrÃamos haber desarrollado como especie se perderÃa para siempre, junto con todas las experiencias positivas que la humanidad podrÃa tener por el resto de su existencia. En las secciones siguientes desarrollamos los riesgos existenciales que presentan el mayor nivel de peligro, ya que tienen mayores probabilidades de suceder que otros riesgos distintos.
NanotecnologÃa y biotecnologÃa incontrolables
En un futuro cercano es probable que desarrollemos una tecnologÃa como los nanorobots. Estos robots diminutos programados se podrÃan usar tanto para fines positivos como negativos. En su uso positivo, se podrÃan utilizar para reparar heridas u órganos y para ayudar a prevenir o curar enfermedades, haciendo al cuerpo humano mucho más resiliente de lo que lo es en la actualidad.
Sin embargo, debemos pensar también en los usos negativos posibles de la nanotecnologÃa, que lamentablemente no son difÃciles de ver. Por ejemplo, si creamos nanorobots que destruyan materia orgánica o que utilicen materia orgánica para multiplicarse, se podrÃa llegar a que estos robots fuesen un nuevo tipo de virus que atacarÃa o devorarÃa a todos los seres orgánicos con los que se cruce. Si los nanorobots son un virus más podrÃan ser contenidos, pero si su letalidad o su Ãndice de reproducción es muy superior a los virus convencionales podrÃan llevar a la extinción de la humanidad o de todos los seres orgánicos del planeta.
No es difÃcil pensar en un escenario análogo con la biotecnologÃa. En este caso, en lugar de tratarse de un nanorobot, podrÃa tratarse de un virus o una bacteria modificados para un experimento o un uso militar. Si el virus es altamente contagioso y letal podrÃa acabar con gran parte o la totalidad de la humanidad.
Inteligencia Artificial desalineada
Otro riesgo existencial es lo que algunos expertos llaman una inteligencia artificial fuerte desalineada con los intereses humanos ("Misaligned Strong AI"). Hasta ahora, el ser humano solo ha desarrollado inteligencia artificial débil ("Weak AI"), que solo supera al ser humano en operaciones muy concretas y especÃficas , como los cálculos matemáticos, jugar al ajedrez o al Go, o el reconocimiento facial. Sin embargo, a medida que la inteligencia artificial logre una mayor capacidad de reconocimiento de patrones para su propio aprendizaje, es posible que se alcance una inteligencia artificial fuerte ("Strong AI"), la cual podrá realizar todas las actividades que un ser humano puede realizar en la actualidad.
Si el problema quedase aquÃ, quizás no ocurrirÃa nada preocupante. El problema, como algunos expertos en inteligencia artificial ya han advertido, es que la inteligencia artificial fuerte sea capaz de programarse a sà misma a un nivel que supere a los programadores humanos. Esto permitirá que tal inteligencia artificial entre en un cÃrculo virtuoso exponencial de mejora. La máquina se programará y se volverá más inteligente, volviéndose Máquina+1. Esa Máquina+1 se programará y se volverá más inteligente, volviéndose Máquina+2, luego Máquina+3, Máquina+4... y asà sucesivamente. Y no se puede saber, a priori, qué lÃmite tendrá tal inteligencia artificial. Los teóricos de la inteligencia artificial llaman a esto una Superinteligencia. [i]
Si esto ocurre, la inteligencia de una máquina de este tipo podrÃa superarnos, dejando al ser humano atrás, a un nivel de inteligencia comparable al de un chimpancé contra un ser humano. Si bien el chimpancé tiene un nivel de inteligencia similar al de un niño humano de tres años, los chimpancés no son capaces de crear ciudades, aviones o internet. De la misma forma, una Superinteligencia podrá desarrollar, a su vez, tecnologÃas nuevas que aún no podemos ni imaginar. Por ello, algunos dicen que la Superinteligencia será el último invento que la humanidad necesitará crear. [ii]
Sin embargo, ¿cómo sabemos que la Superinteligencia tendrá unos valores éticos aceptables a la hora de programarse y tomar sus propios cursos de acción? ¿O que desarrollará tecnologÃas o cambios en el planeta que sean similares a los que la humanidad quiere? Una máquina no tiene una naturaleza humana compartida con nosotros, ni un aprendizaje cultural similar al nuestro. Si sigue reglas morales - en el sentido relevante para una máquina, esto son reglas de conducta, qué hacer y qué no hacer, a qué prestar atención y qué ignorar - será porque:
Se las habremos programado previamente y de una forma que no sea capaz de acceder para modificar o eliminar, en cuyo caso las aplicará dogmáticamente y con consecuencias imprevisibles para nuestra inteligencia más limitada.
O debido a su inteligencia superior podrÃa engañar a las personas para que le permitan autoprogramar sus propias reglas de conducta, las cuales reprogramará para fines que nos resultan completamente desconocidos.
O, si se lo permitimos, creará sus propias reglas morales desde un principio, que no tienen por qué parecerse en absoluto al comportamiento humano o animal, debido a su naturaleza no-biológica, completamente distinta a la nuestra.
Esto es lo que se llama una inteligencia artificial desalineada. La máquina no está alineada con los valores humanos o los valores que queremos que tenga. Esto, sumado a su inteligencia superior, podrÃa significar que la Superinteligencia serÃa la nueva "especie dominante" en nuestro planeta.
En cualquier caso, la programación de valores éticos y patrones de conducta aceptables en máquinas es una disciplina extremadamente importante para el futuro de la humanidad. Cuanto antes reflexionemos sobre ello en profundidad y hagamos consciente a la gente de la urgencia problemas, mejor. Actualmente, se invierten grandes sumas de dinero en inteligencia artificial, pero se invierte muy poco en que tales tecnologÃas sean seguras.
DistopÃas irreversibles
También se incluyen dentro de los riesgos existenciales aquellos que, sin llevarnos a la extinción, podrÃan dañar permanentemente el potencial futuro de la humanidad y nuestra posibilidad de mejorar como civilización. Ello supone un bloqueo permanente al desarrollo de la civilización, lo que podrÃamos llamar una distopÃa irreversible y permanente.
Esta es una situación que se da cuando, por algún motivo, como la utilización de alguna tecnologÃa aún desconocida, la humanidad no puede escapar una situación civilizatoria totalitaria que se perpetúa indefinidamente. Un gobierno u organización militar podrÃa utilizar alguno de estos riesgos catastróficos o existenciales como arma de negociación para imponer algún tipo de "gobierno mundial" dictatorial. Si un paÃs o una organización posee armas nucleares, nanorobots o biotecnologÃa altamente peligrosos o Inteligencia Artificial desalineada, podrÃa utilizar tal tecnologÃa selectivamente o como amenaza para imponerse frente al resto de la humanidad por un tiempo indeterminado y en principio indefinido.
Sin embargo, y a pesar de que un gobierno de este tipo se podrÃa mantener durante décadas, cientos o incluso miles de años, este tipo de totalitarismo tendrÃa que gozar de una estabilidad verdaderamente extraordinaria para lograr imponerse como riesgo existencial permanente.
Riesgos impredecibles
Finalmente, podemos incluir otra serie de riesgos fuera de nuestro control. Los principales incluyen la posibilidad de desarrollar tecnologÃas que son totalmente desconocidas en la actualidad, pero que en un futuro podrÃan suponer grandes riesgos para la humanidad.
Otro de estos riesgos es la posibilidad una especie alienÃgena tecnológicamente más avanzada y hostil hacia nosotros destruya la humanidad. No podemos saber la probabilidad de tal riesgo sin conocer cómo de común es la vida en el espacio exterior, y, particularmente, cuántas especies pueden llegar a desarrollarse en civilizaciones que lleguen al espacio con viaje intergaláctico y que nos encuentren en la franja de tiempo de la existencia de la humanidad, la cual es extremadamente breve en comparación a la historia del universo. Extrapolando de la Tierra, estas especies serÃan una gran minorÃa.
Sin embargo, la posibilidad de tal riesgo nos deberÃa llevar a ser cautos antes de darnos a conocer en el espacio exterior. Ya hemos enviado ondas de radio al espacio para que alguna civilización alienÃgena nos pueda detectar. Esto, desde la perspectiva de los riesgos existenciales, es irresponsable, pues no sabemos qué clase de valores y conducta podrÃa tener una civilización extraterrestre más avanzada que la nuestra.
No todos los riesgos son iguales
En la tercera parte de este artÃculo, hablaremos de qué riesgos existenciales son más importantes, dado que no todos estos riesgos tienen la misma probabilidad de ocurrir. Y en en el caso de los riesgos catastróficos, tampoco la misma gravedad.
Finalmente, haremos una enumeración de algunas páginas web recomendadas para leer más sobre este tipo de riesgos, y sobre algunos institutos de investigación que han surgido recientemente para dedicarse a investigar, analizar, realizar predicciones prospectivas y protocolos de acción sobre riesgos globales.
Leer Parte 3.
[i] Bostrom, Nick (2016) Superinteligencia: Caminos, Peligros, Estrategias. TEELL.
Russell, Stuart (2019) Human Compatible: Artificial Intelligence and the Problem of Control. Penguin Books. También recomendamos ver el canal de Youtube de Robert Miles. (en inglés)
[ii] Es lo que da el tÃtulo al libro Our Final Invention: Artificial Intelligence and the End of the Human Era, de James Barrat