Argumentos a favor de reducir el riesgo existencial
En 1939, Einstein le escribió a Roosevelt:a
[Puede] darse la posibilidad de poner en marcha una reacción nuclear en cadena en una gran masa de uranio… y es concebible —aunque mucho menos seguro— que puedan construirse así bombas de un nuevo tipo, extremadamente potentes.
Solo unos años después, se crearon estas bombas. En poco más de una década, se habían producido tantas que, por primera vez en la historia, un puñado de personas con suficiente poder de decisión podría destruir la civilización.
La humanidad había entrado en una nueva era, en la que no solo nos enfrentábamos a los riesgos existencialesb de nuestro entorno natural, sino también a la posibilidad de que pudiéramos causar nuestra propia extinción.
En esta nueva era, ¿cuál debería ser nuestra mayor prioridad como civilización? ¿Mejorar la tecnología? ¿Ayudar a los pobres? ¿Cambiar el sistema político?
He aquí una sugerencia que no se discute tan a menudo: nuestra prioridad principal debería ser sobrevivir.
Mientras la civilización continúe existiendo, tendremos la oportunidad de resolver todos los demás problemas y de construir un futuro mucho mejor. Pero si nos extinguimos, se acabó.
¿Por qué no se habla de esta prioridad con más frecuencia? He aquí una razón: mucha gente aún no aprecia el cambio de situación y, por ello, no considera que nuestro futuro esté en peligro.
El investigador en ciencias sociales Spencer Greenberg encuestó a ciudadanos estadounidenses sobre su estimación de las probabilidades de extinción humana dentro de 50 años. Los resultados revelaron que muchos piensan que las probabilidades son extremadamente bajas: más del 30 % cree que son inferiores a 1 en 10 millones.c
Nosotros también pensábamos que los riesgos eran extremadamente bajos, pero cuando lo investigamos, cambiamos de opinión. Como veremos, los investigadores que estudian estos temas creen que los riesgos son más de 1 000 veces superiores y que probablemente estén aumentando.
Estas preocupaciones han iniciado un nuevo movimiento que trabaja para salvaguardar la civilización, al que se han unido Stephen Hawking, Max Tegmark y nuevos institutos fundados por investigadores de Cambridge, del MIT, de Oxford y de otras universidades.
En el resto de este artículo, analizamos los mayores riesgos para la civilización, incluidos algunos que podrían ser mayores que la guerra nuclear y el cambio climático. Luego argumentamos que reducir estos riesgos podría ser lo más importante que hagas en tu vida y explicamos exactamente qué puedes hacer para ayudar. Si quieres dedicar tu carrera profesional a trabajar en estos temas, también podemos darte apoyo personalizado.
Una probabilidad de extinción de 1 en 10 millones en los próximos 50 años —lo que mucha gente cree que es el riesgo— tiene que ser una subestimación. Las amenazas existenciales naturales pueden calcularse con bastante exactitud a partir de la historia y son mucho mayores.
Si un asteroide de un kilómetro de diámetro impactara contra la Tierra, es posible que la civilización desaparezca. A partir de los registros históricos y del seguimiento de los objetos en el cielo, los astrónomos pueden estimar que el riesgo de que un asteroide de este tamaño impacte contra la Tierra es de 1 en 5 000 por siglo,d una cifra superior a las probabilidades que tiene la mayoría de la gente de sufrir un accidente de avión (1 en 5 millones por vuelo) y unas 1 000 veces superior al riesgo de 1 en 10 millones que algunos estimaban.e
Algunos argumentan que, aunque un objeto del tamaño de un kilómetro sería desastroso, no sería suficiente para causar la extinción, por lo que se trata de una sobrestimación. Pero, por otro lado, existen otros riesgos naturales, como los supervolcanes.f
Dicho esto, los riesgos naturales siguen siendo bastante pequeños en términos absolutos. Un artículo del Dr. Toby Ord estima que si sumamos todos los riesgos naturales, es muy improbable que alcancen una probabilidad de extinción mayor a 1 en 300 por siglo.1
Por desgracia, como veremos a continuación, los riesgos naturales son mucho menores que los provocados por el hombre. Y por eso el riesgo de extinción se ha convertido en una cuestión especialmente urgente.
Si se observa la historia a lo largo de milenios, el mensaje fundamental es que durante mucho tiempo casi todo el mundo era pobre y luego, en el siglo XVIII, eso cambió.2
La causa fue la Revolución Industrial, quizá el acontecimiento más importante de la historia.
No solo creció la riqueza. El siguiente gráfico muestra que, a largo plazo, la esperanza de vida, el consumo de energía y la democracia han crecido rápidamente, mientras que el porcentaje de personas que viven en la pobreza ha disminuido espectacularmente.3
Los niveles de alfabetización y educación también han aumentado vertiginosamente:
La gente también parece ser más feliz a medida que se enriquece.
En Los ángeles que llevamos dentro, Steven Pinker sostiene que la violencia está disminuyendo. (Aunque nuestro reciente pódcast con Bear Braumoeller —que apareció luego de la publicación de este artículo— analiza algunas razones por las que esto podría no ser así.)
La libertad individual ha aumentado, mientras que el racismo, el sexismo y la homofobia han disminuido.
Mucha gente piensa que el mundo está empeorando,g y es cierto que la civilización moderna hace algunas cosas terribles, como la cría intensiva de animales. Pero como se puede ver en los datos, muchas medidas importantes de progreso han mejorado radicalmente.
Es más: independientemente de lo que creamos que ha ocurrido en el pasado, si miramos hacia adelante, la mejora de la tecnología, de la organización política y de la libertad ofrece a nuestros descendientes la posibilidad de resolver los problemas actuales y tener una vida mucho mejor.h Es posible acabar con la pobreza, prevenir el cambio climático, aliviar el sufrimiento y mucho más.
Pero observemos también la línea morada del segundo gráfico: la capacidad bélica. Se basa en las estimaciones del poder militar mundial realizadas por el historiador Ian Morris y también ha aumentado drásticamente.
He aquí la cuestión: la mejora de la tecnología encierra la posibilidad de ganancias enormes, pero también riesgos enormes.
Cada vez que descubrimos una nueva tecnología, la mayoría de las veces reporta grandes beneficios. Pero también existe la posibilidad de que descubramos una tecnología con más poder destructivo del que somos capaces de utilizar sabiamente.
Y así, aunque este es el periodo más próspero de la historia de la humanidad, es probablemente también el más peligroso.
La primera tecnología destructiva de este tipo fueron las armas nucleares.
Hoy todos tenemos en mente el programa nuclear de Corea del Norte, pero los acontecimientos actuales no son más que un capítulo de una larga saga de catástrofes que podrían haber ocurrido.
Solo durante la crisis de los misiles de Cuba estuvimos cerca de la guerra nuclear en varias ocasiones.4 En una de ellas, los estadounidenses decidieron que si uno de sus aviones espía era abatido, invadirían Cuba inmediatamente sin necesidad de reunirse con el Consejo de Guerra. Al día siguiente, un avión espía fue abatido. John F. Kennedy convocó el Consejo de todos modos y decidió no invadir.
Una invasión de Cuba bien podría haber desencadenado una guerra nuclear; más tarde se supo que Castro estaba a favor de una represalia nuclear aunque hubiera conducido a la completa aniquilación de Cuba
. Algunos de los comandantes de lanzamiento en Cuba también tenían autoridad independiente para apuntar a las fuerzas estadounidenses con armas nucleares tácticas en caso de invasión.
En otro incidente, un submarino nuclear ruso intentaba introducir materiales de contrabando en Cuba cuando fue descubierto por la flota estadounidense. La flota comenzó a lanzar cargas de profundidad falsas para obligar al submarino a salir a la superficie. El capitán ruso pensó que se trataba de cargas de profundidad reales y que, al estar fuera de comunicación por radio, había comenzado la tercera guerra mundial. Ordenó un ataque nuclear contra la flota americana con uno de sus torpedos nucleares.
Afortunadamente, necesitaba la aprobación de otros oficiales superiores. Uno de ellos, Vasili Arkhipov, estuvo en desacuerdo, y evitó así que estallara una guerra.
A raíz de todo esto, Kennedy más tarde estimó que las probabilidades de que se produjera una guerra nuclear eran entre uno en tres, y mitad y mitad
.i
Ha habido muchos otros incidentes que estuvieron muy cerca de resultar en una catástrofe con Rusia, incluso después de la Guerra Fría, como se enumera en esta valiosa página de Wikipedia. Y esos son solo los que conocemos.
Hoy en día, los expertos nucleares están tan preocupados por las tensiones entre India y Pakistán, ambos poseedores de armas nucleares, como por Corea del Norte.j
El problema clave es que varios países mantienen grandes arsenales nucleares listos para ser desplegados en cuestión de minutos. Esto significa que una falsa alarma o un accidente pueden derivar rápidamente en una guerra nuclear a gran escala, especialmente en tiempos de relaciones exteriores tensas.
¿Acabaría una guerra nuclear con la civilización? Inicialmente, se pensó que una explosión nuclear podría ser tan caliente que incendiaría la atmósfera y volvería inhabitable la Tierra. Los científicos estimaron que este escenario era lo suficientemente improbable como para que las armas pudieran probarse de forma “segura” y ahora sabemos que esto no ocurrirá.
En los años ochenta, se temía que la ceniza de los edificios en llamas sumiera a la Tierra en un invierno prolongado que imposibilitara los cultivos durante décadas.k Los modelos climáticos modernos sugieren que es muy improbable que se produzca un invierno nuclear lo bastante grave como para matar a todo el mundo, aunque es difícil estar seguro debido a la incertidumbre sobre los modelos.l
Sin embargo, incluso un invierno nuclear “leve” podría provocar una hambruna masiva.m Por este y otros motivos, una guerra nuclear sería extremadamente desestabilizadora y no está claro si la civilización podría recuperarse.
¿Qué probabilidades hay de que una guerra nuclear acabe definitivamente con la civilización humana? Es muy difícil hacer una estimación, pero parece difícil concluir que la probabilidad de una guerra nuclear que acabe con la civilización en el próximo siglo sea inferior al 0,3 %. Eso significaría que los riesgos de las armas nucleares son mayores que todos los riesgos naturales juntos. (Más información sobre los riesgos nucleares.)
Por eso, los años cincuenta marcaron el inicio de una nueva era para la humanidad. Por primera vez en la historia, un pequeño número de personas con suficiente poder de decisión podía causar estragos en todo el mundo. Ahora somos nosotros quienes representamos la mayor amenaza para nuestra supervivencia, lo que hace que hoy sea el momento más peligroso de la historia de la humanidad.
Y las armas nucleares no son la única forma de acabar con la civilización.
En 2015, el presidente estadounidense Barack Obama dijo en su discurso sobre el estado de la Unión que [n]ingún desafío constituye una amenaza mayor para las generaciones futuras que el cambio climático.
El cambio climático es sin duda un riesgo importante para la civilización.
El resultado más probable es un calentamiento de entre 2 y 4 grados,5 que sería malo, pero soportable para nuestra especie.
Sin embargo, algunas estimaciones asignan un 10 % de probabilidades a un calentamiento superior a 6 grados, y quizá un 1 % de probabilidades a un calentamiento de 9 grados.
Por tanto, parece que la probabilidad de un desastre climático masivo provocado por el CO2 es similar a la de una guerra nuclear.
Pero como argumentamos en nuestro perfil de problema sobre el cambio climático, parece poco probable que incluso 13 grados de calentamiento provoquen directamente la extinción de la humanidad. En consecuencia, los investigadores que estudian estas cuestiones creen que es más probable que una guerra nuclear provoque la extinción total, debido a la posibilidad de un invierno nuclear, por lo que pensamos que las armas nucleares suponen un riesgo aún mayor que el cambio climático.
Dicho esto, el cambio climático es sin duda un problema importante, y sus efectos desestabilizadores podrían exacerbar otros riesgos (incluidos los riesgos de conflicto nuclear). Esto debería elevar aún más nuestra estimación de los riesgos.
La invención de las armas nucleares dio lugar al movimiento antinuclear apenas un par de décadas más tarde, en los años sesenta, y el movimiento ecologista no tardó en adoptar la causa de la lucha contra el cambio climático.
Lo que se aprecia menos es que las nuevas tecnologías presentarán más riesgos catastróficos. Por eso necesitamos un movimiento que se preocupe por salvaguardar la civilización en general.
Predecir el futuro de la tecnología es difícil, pero como solo tenemos una civilización, tenemos que esforzarnos al máximo. He aquí algunos candidatos a convertirse en la próxima tecnología tan peligrosa como las armas nucleares.
Más del 3 % de la población mundial murió a causa de la pandemia de gripe de 1918.n Si hoy surgiera una pandemia semejante, sería aún más difícil de contener debido a la rapidez del transporte mundial.
Lo más preocupante, sin embargo, es que puede que pronto sea posible diseñar genéticamente un virus tan contagioso como la gripe de 1918, pero también más mortífero, y que podría propagarse durante años sin ser detectado.
Sería un arma con el poder destructivo de las armas nucleares, pero su uso sería mucho más difícil de impedir. Las armas nucleares requieren enormes fábricas y materiales poco comunes, lo que las hace relativamente fáciles de controlar. Los virus de diseño podrían crearse en un laboratorio con un par de personas con doctorados en biología. De hecho, en 2006, el diario británico The Guardian consiguió recibir por correo segmentos del virus de la viruela, erradicado de la población y confinado a los laboratorios.6 Algunos grupos terroristas han expresado interés en el uso indiscriminado de armas de este tipo. (Más información sobre los riesgos de pandemia.)
Otra nueva tecnología con un enorme potencial es la inteligencia artificial.
La razón por la que los humanos estamos al mando y no los chimpancés es puramente una cuestión de inteligencia. Nuestros cerebros grandes y capaces nos dan un control increíble del mundo, a pesar de que somos mucho más débiles físicamente que los chimpancés.
Entonces, ¿qué pasaría si un día creáramos algo mucho más inteligente que nosotros mismos?
En 2017, 350 investigadores que habían publicado investigaciones revisadas por pares sobre inteligencia artificial en las principales conferencias fueron encuestados sobre cuándo creen que desarrollaremos computadoras con inteligencia de nivel humano: es decir, una máquina que sea capaz de realizar todas las tareas laborales mejor que los humanos.
La estimación media fue que hay un 50 % de probabilidades de que desarrollemos inteligencia artificial de alto nivel en 45 años, y un 75 % a finales de siglo.o
Estas probabilidades son difíciles de estimar y los investigadores dieron cifras muy diferentes dependiendo precisamente de cómo se formulaba la pregunta.p No obstante, parece que hay al menos una probabilidad razonable de que se invente algún tipo de inteligencia artificial transformadora en el próximo siglo. Además, una mayor incertidumbre significa que podría llegar antes de lo que la gente cree.
¿Qué riesgos podría implicar este desarrollo? Los pioneros originales de la informática, como Alan Turing y Marvin Minsky, expresaron su preocupación por los riesgos de los sistemas informáticos avanzadosq y estos riesgos siguen existiendo hoy en día. No estamos hablando de que las computadoras “se vuelvan malvadas”. Más bien, algunas de las preocupaciones son que un sistema de IA avanzado pueda ser utilizado por un grupo para hacerse con el control del mundo o que se haga un mal uso de él de alguna otra forma. Si la URSS hubiera desarrollado armas nucleares 10 años antes que Estados Unidos, podría haberse convertido en la potencia mundial dominante. Una tecnología informática avanzada podría entrañar riesgos similares.
Otra preocupación es que el despliegue del sistema podría tener consecuencias imprevistas, ya que sería difícil predecir lo que haría algo más inteligente que nosotros. Un sistema suficientemente potente también podría ser difícil de controlar y, por tanto, de revertir una vez puesto en marcha. Estas preocupaciones han sido documentadas por el profesor de Oxford Nick Bostrom en Superinteligencia y por el pionero de la IA Stuart Russell.
La mayoría de los expertos creen que mejorar la IA será un avance enormemente positivo, pero también están de acuerdo en que existen riesgos. En la encuesta que acabamos de mencionar, los expertos en IA estimaron que el desarrollo de la IA de alto nivel tiene un 10 % de probabilidades de llevar a un “mal resultado” y un 5 % de probabilidades de llevar a un resultado “extremadamente malo”, como la extinción humana.r Y probablemente deberíamos esperar que este grupo tenga un sesgo optimista, ya que, después de todo, quienes lo integran se ganan la vida con esta tecnología.
Combinando las estimaciones, si hay un 75 % de probabilidades de que se desarrolle una inteligencia artificial de alto nivel en el próximo siglo, esto significa que la probabilidad de que se produzca un gran desastre por la IA es del 5 % del 75 %, lo que equivale aproximadamente a un 4 %. (Más información sobre los riesgos de la inteligencia artificial.)
Se ha expresado preocupación por otras nuevas tecnologías, como otras formas de geoingeniería y de fabricación atómica, pero parecen mucho menos inminentes, por lo que se consideran menos peligrosas que las otras tecnologías que hemos tratado. Puede consultarse una lista más larga de riesgos existenciales aquí.
Lo que probablemente sea más preocupante son los riesgos en los que aún no hemos pensado. Si se hubiera preguntado a la gente en 1900 cuáles eran los mayores riesgos para la civilización, probablemente no habrían sugerido las armas nucleares, la ingeniería genética o la inteligencia artificial, ya que ninguna de estas tecnologías se había inventado todavía. Es posible que nos encontremos en la misma situación de cara al próximo siglo. Los futuros “desconocimientos desconocidos” podrían suponer un riesgo mayor que los riesgos hoy conocidos.
Cada vez que descubrimos una nueva tecnología, es un poco como apostar contra un único número en una ruleta. La mayoría de las veces ganamos, y la tecnología es buena en general. Pero cada vez hay también una pequeña probabilidad de que la tecnología nos dé más poder destructivo del que podemos manejar y lo perdamos todo.
Muchos expertos que estudian estas cuestiones estiman que la probabilidad total de extinción humana en el próximo siglo oscila entre el 1 y el 20 %.
En un episodio de nuestro pódcast, Will MacAskill nos explica por qué él cifra el riesgo de extinción en este siglo en torno al 1 %.
Y en su libro de 2020, The Precipice, Toby Ord estima que nuestro riesgo existencial total en este siglo es de 1 en 6 (o alrededor del 17 %): el equivalente de tirar un dado. (Obsérvese, sin embargo, que la definición de Ord de catástrofe existencial no equivale exactamente a la extinción humana; incluiría, por ejemplo, una catástrofe global que privara permanentemente a la especie de la capacidad de recuperarse, aunque algunos humanos siguieran viviendo.) (Escucha nuestro episodio con Toby.)
Su libro presenta la siguiente tabla con sus estimaciones (muy aproximadas) del riesgo existencial proveniente de lo que él considera las principales amenazas:
Catástrofe existencial | Probabilidad aproximada en los próximos 100 años |
---|---|
Impacto de un asteroide o cometa | 1 en 1 000 000 |
Erupción de un supervolcán | 1 en 10 000 |
Explosión estelar | 1 en 1 000 000 000 |
Riesgo natural total | 1 en 10 000 |
Guerra nuclear | 1 en 1 000 |
Cambio climático | 1 en 1 000 |
Otros daños medioambientales | 1 en 1 000 |
Pandemias “naturales” | 1 en 10 000 |
Pandemias artificiales | 1 en 30 |
Inteligencia artificial no alineada | 1 en 10 |
Riesgos antropogénicos imprevistos | 1 en 30 |
Otros riesgos antropogénicos | 1 en 50 |
Riesgo antropogénico total | 1 en 6 |
Riesgo existencial total | 1 en 6 |
Estas cifras son aproximadamente un millón de veces más altas de lo que la gente piensa normalmente.
¿Cómo debemos interpretar estas estimaciones? Presumiblemente, los investigadores interesados en este tema solo se dedican a él porque creen que es muy importante, por lo que deberíamos esperar que sus estimaciones sean altas (debido a un sesgo de selección). Aunque las cifras son objeto de debate, creemos que existe un abanico de opiniones plausibles, que incluye las de MacAskill y Ord.
¿Hasta qué punto deberíamos dar prioridad a trabajar para reducir estos riesgos en comparación con otras cuestiones, como la pobreza global, acabar con el cáncer o el cambio político?
En 80 000 Horas realizamos investigaciones para ayudar a la gente a encontrar carreras profesionales con un impacto social positivo. Para ello, tratamos de identificar los problemas más urgentes del mundo y los evaluamos utilizando nuestro marco de problemas, que compara los problemas en términos de los siguientes factores:
Si aplicamos este marco, creemos que salvaguardar el futuro es la prioridad global máxima. Por tanto, si quieres tener un gran impacto positivo en tu carrera profesional, esta es el área más importante en la que puedes centrarte.
En las siguientes secciones, evaluaremos esta cuestión en cuanto a escala, desatención y solucionabilidad, basándonos en gran medida en ‘La prevención del riesgo existencial como prioridad global’ de Nick Bostrom y trabajos inéditos de Toby Ord, así como en nuestras propias investigaciones.
En primer lugar, empecemos por la escala del problema. Hemos argumentado que es probable que haya más de un 3 % de probabilidades de extinción en el próximo siglo. ¿Cuál es la magnitud del problema?
Una cifra que podemos considerar es el número de personas que podrían morir en tal catástrofe. La población de la Tierra a mediados de siglo será de unos 10 000 millones de habitantes, por lo que una probabilidad del 3 % de que todo el mundo muera significa que el número esperado de muertes es de unos 300 millones. Esto es probablemente mayor que el número de muertes que podemos esperar en el transcurso del próximo siglo a causa de enfermedades relacionadas con la pobreza, como la malaria.s
Muchos de los riesgos a los que nos hemos referido también podrían causar una catástrofe “media”, en lugar de una que acabe con la civilización, y cabe suponer que esto es mucho más probable. La encuesta citada anteriormente sugería una probabilidad superior al 10 % de que se produjera una catástrofe que acabara con la vida de más de 1 000 millones de personas en el próximo siglo, lo que supondría al menos otros 100 millones de muertes en términos esperados, además de un gran sufrimiento adicional entre los sobrevivientes.
Así pues, aunque solo nos centremos en el impacto sobre la generación presente, estos riesgos catastróficos son uno de los problemas más graves a los que se enfrenta la humanidad.
Pero esto es subestimar enormemente la magnitud del problema, porque si la civilización se acaba, también se acaba todo nuestro futuro.
La mayoría de la gente quiere dejar un mundo mejor a sus nietos y la mayoría también piensa que deberíamos preocuparnos por las generaciones futuras en general. Es posible que en el futuro haya muchas más personas con vidas maravillosas que en la actualidad, y deberíamos preocuparnos por sus intereses. Existe la posibilidad de que la civilización humana dure millones de años, así que cuando consideramos el impacto de los riesgos en las generaciones futuras, lo que está en juego es millones de veces mayor, para bien o para mal. Como escribió Carl Sagan en Foreign Affairs sobre los costos de una guerra nuclear:7
Una guerra nuclear pone en peligro a todos nuestros descendientes, mientras haya seres humanos. Incluso si la población permanece estática, con una vida media del orden de 100 años, en un periodo de tiempo típico para la evolución biológica de una especie con éxito (aproximadamente 10 millones de años), estamos hablando de unos 500 billones de personas aún por venir. Según este criterio, lo que está en juego es un millón de veces mayor para la extinción que para las más modestas guerras nucleares que matan “solo” a cientos de millones de personas. Hay muchas otras medidas posibles de la pérdida potencial, incluyendo la cultura y la ciencia, la historia evolutiva del planeta y el significado de las vidas de todos nuestros antepasados que contribuyeron al futuro de sus descendientes. La extinción es la destrucción del proyecto humano.
Nos alegramos de que los romanos no dejaran que la humanidad se extinguiera, ya que eso ha permitido que exista toda la civilización moderna. Creemos que tenemos una responsabilidad similar para con los que vendrán después de nosotros, asumiendo (como creemos) que es probable que lleven una vida próspera. Sería imprudente e injusto poner en peligro su existencia solo para mejorar nuestra situación a corto plazo.
No se trata solo de que pueda haber más gente en el futuro. Como también señaló Sagan, independientemente de lo que consideremos valioso, habrá potencialmente mucho más de ello en el futuro. La civilización futura podría crear un mundo sin necesidades ni carencias y alcanzar logros intelectuales y artísticos alucinantes. Podríamos construir una sociedad mucho más justa y virtuosa. Y no hay ninguna razón fundamental por la que la civilización no pueda llegar a otros planetas, de los que hay unos 100 000 millones en nuestra galaxia.8 Si no permitimos que la civilización perdure, nada de esto podrá suceder jamás.
No estamos seguros de que ese gran futuro se haga realidad, pero esa incertidumbre es una razón más para mantener la civilización y tener la oportunidad de averiguarlo. Es posible que no pasar la antorcha a la siguiente generación sea lo peor que podríamos hacer.
Así pues, un riesgo de un par de puntos porcentuales de que la civilización llegue a su fin parece ser el mayor problema al que se enfrenta el mundo hoy en día. Lo que también llama la atención es lo desatendidos que están estos riesgos.
He aquí cuánto dinero se destina al año a algunas causas importantes:t
Causa | Gasto anual dirigido de todas las fuentes (muy aproximado) |
---|---|
Investigación y desarrollo globales | 1,5 billones de dólares |
Bienes de lujo | 1,3 billones de dólares |
Bienestar social en EE. UU. | 900 000 millones de dólares |
Cambio climático | más de 300 000 millones de dólares |
Ayuda a los pobres del mundo | más 250 000 millones de dólares |
Seguridad nuclear | entre 1 000 y 10 000 millones de dólares |
Prevención de pandemias extremas | 1 000 millones de dólares |
Investigación sobre la seguridad de la IA | 10 millones de dólares |
Como puede verse, gastamos una gran cantidad de recursos en investigación y desarrollo para crear tecnologías aún más potentes. También gastamos mucho en un intento (posiblemente equivocado) de mejorar nuestras vidas comprando artículos de lujo.
Gastamos mucho menos en mitigar los riesgos catastróficos del cambio climático. Solamente el gasto en bienestar social en Estados Unidos eclipsa el gasto global en cambio climático.
Pero el cambio climático sigue recibiendo enormes cantidades de dinero en comparación con algunos de estos otros riesgos que hemos tratado. Calculamos aproximadamente que la prevención de pandemias globales extremas recibe una cantidad unas 300 veces inferior, aunque la magnitud del riesgo parece más o menos la misma.
La investigación para evitar accidentes asociados a los sistemas de IA es la más desatendida de todas y quizá reciba recursos que todavía son unas 100 veces inferiores: solo unos 10 millones de dólares al año.
El panorama sería similar si nos fijáramos en el número de personas que trabajan en estos riesgos en lugar del dinero gastado, pero es más fácil obtener cifras tratándose de dinero.
Si, en cambio, nos fijamos en la atención científica, vemos un panorama similar de desatención (aunque algunos de los riesgos individuales reciben una atención significativa, como el cambio climático):
Nuestra impresión es que si nos fijamos en la atención política, encontraremos un panorama similar al que arrojan las cifras de financiación. Una cantidad abrumadora de la atención política se dedica a cuestiones concretas que ayudan a la generación presente a corto plazo, ya que eso es lo que consigue votos. Los riesgos catastróficos se descuidan mucho más. Así, entre los riesgos catastróficos, el cambio climático es el que más atención recibe, mientras que cuestiones como las pandemias y la IA son las más desatendidas.
Esta falta de recursos, de estudios científicos y de atención política es exactamente lo que cabría esperar que ocurriera como consecuencia de la economía subyacente y es la razón por la que el área presenta una oportunidad para quienes quieren contribuir a mejorar el mundo.
En primer lugar, estos riesgos no son responsabilidad de una sola nación. Supongamos que EE. UU. invirtiera mucho para prevenir el cambio climático. Esto beneficia a todos los habitantes del mundo, pero solo alrededor del 5 % de la población mundial vive en EE. UU., por lo que los ciudadanos estadounidenses solo recibirían el 5 % de los beneficios de este gasto. Esto significa que EE. UU. invertirá bastante menos de lo que debería en estos esfuerzos, en comparación con lo mucho que valen para el mundo. Y lo mismo ocurre con todos los demás países.
El problema podría resolverse si todos pudiéramos coordinarnos: si todos los países acordaran contribuir en la medida que les corresponde a reducir el cambio climático, todas las naciones se beneficiarían al evitar sus peores efectos.
Desgraciadamente, desde la perspectiva de cada nación individual, es mejor que todos los demás países reduzcan sus emisiones, mientras dejan su propia economía sin trabas. Por tanto, cada país tiene motivos para incumplir los acuerdos sobre el clima, y por eso se avanza tan poco (es un dilema del prisionero).
En realidad, esto implica subestimar en extremo el problema. Los mayores beneficiarios de los esfuerzos por reducir los riesgos catastróficos son las generaciones futuras. No tienen forma de defender sus intereses, ni económica ni políticamente.
Si las generaciones futuras pudieran votar en nuestras elecciones, votarían mayoritariamente a favor de políticas más seguras. Del mismo modo, si las generaciones futuras pudieran enviar dinero al pasado, estarían dispuestas a pagarnos enormes cantidades de dinero para reducir estos riesgos. (Técnicamente, la reducción de estos riesgos crea un bien público transgeneracional y global, lo que debería convertirlos en una de las formas más desatendidas de hacer el bien.)
Nuestro sistema actual protege insuficientemente a las generaciones futuras. Conocemos a personas que han hablado con altos funcionarios del gobierno en el Reino Unido, y muchos quieren hacer algo respecto a estos riesgos, pero dicen que las presiones de las noticias y del ciclo electoral hacen que sea difícil centrarse en ellos. En la mayoría de los países, no existe ningún organismo gubernamental que tenga entre sus competencias la mitigación de estos riesgos.
Es una situación deprimente, pero también es una oportunidad. Para las personas que quieren contribuir a mejorar el mundo, esta falta de atención significa que hay muchas formas de ayudar que pueden tener un gran impacto.
Hemos hablado de la escala y la desatención de estos problemas, pero ¿qué hay del tercer elemento de nuestro marco, la solucionabilidad?
Es menos seguro que podamos avanzar en estas cuestiones que en ámbitos más convencionales como la salud global. Es mucho más fácil medir nuestro impacto en la salud (al menos a corto plazo) y tenemos décadas de evidencia sobre qué es lo que funciona. Esto significa que trabajar para reducir los riesgos catastróficos parece menos solucionable.
Sin embargo, aún podemos hacer mucho, y dada la enorme escala y desatención de estos riesgos, siguen pareciendo los problemas más urgentes.
Esbozaremos algunas formas de reducir estos riesgos, divididas en tres grandes categorías:
Un enfoque consiste en abordar cada riesgo de forma directa. Hay muchas propuestas concretas para hacer frente a cada uno, como las siguientes:
Muchos expertos coinciden en que una mejor vigilancia de las enfermedades reduciría el riesgo de pandemias. Esto podría implicar una mejora de la tecnología o una mejor recopilación y agregación de los datos existentes, para ayudarnos a detectar nuevas pandemias con mayor rapidez. Y cuanto más rápido se pueda detectar una nueva pandemia, más fácil será controlarla.
Hay muchas maneras de reducir el cambio climático, como ayudar a desarrollar mejores paneles solares o introducir un impuesto sobre el carbono.
Con la IA, podemos investigar el “problema del control” en el ámbito de la informática, para reducir la probabilidad de daños accidentales de los sistemas de IA avanzados. Un documento reciente, Concrete problems in AI safety, esboza algunos temas específicos, pero solo unas 20 personas trabajan a tiempo completo en investigaciones similares en la actualidad.
En seguridad nuclear, muchos expertos piensan que los beneficios disuasorios de las armas nucleares podrían mantenerse con arsenales mucho más reducidos. Y la reducción de los arsenales también disminuiría los riesgos de accidentes, así como la probabilidad de que una guerra nuclear, en caso de producirse, acabe con la civilización.
En nuestros perfiles de problema profundizamos en lo que se puede hacer para combatir cada riesgo:
En esta sección no nos centramos en los riesgos de origen natural, porque son mucho menos probables y ya estamos haciendo mucho para mitigar algunos de ellos. La mejora de la riqueza y la tecnología nos hacen más resistentes a los riesgos naturales, y ya se está haciendo un enorme esfuerzo para lograr estas mejoras.
En lugar de intentar reducir cada riesgo por separado, podemos tratar de hacer que la civilización sea mejor en general para gestionarlos. Los esfuerzos “amplios” ayudan a reducir todas las amenazas a la vez, incluso aquellas en las que aún no hemos pensado.
Por ejemplo, hay responsables clave de la toma de decisiones, a menudo en el gobierno, que tendrán que gestionar estos riesgos a medida que vayan surgiendo. Si pudiéramos mejorar la capacidad de decisión de estas personas e instituciones, la sociedad en general sería más resiliente y se resolverían muchos otros problemas.
La investigación reciente ha descubierto muchas formas de mejorar la toma de decisiones, pero la mayoría aún no se han puesto en práctica. Al mismo tiempo, son pocos los que trabajan en el tema. Profundizamos en ello en nuestro artículo sobre la mejora de la toma de decisiones institucionales.
Otro ejemplo es que podríamos intentar facilitar la recuperación de la civilización tras una catástrofe. La Bóveda Mundial de Semillas de Svalbard es una bóveda congelada en el Ártico que contiene las semillas de muchas variedades importantes de cultivos, lo que reduce la probabilidad de que perdamos una especie importante. Recientemente, ha entrado agua de deshielo en el túnel que conduce a la bóveda debido, irónicamente, al cambio climático, por lo que la iniciativa probablemente podría beneficiarse con más financiación. Hay muchos otros proyectos como este que podríamos llevar a cabo para preservar el conocimiento.
Del mismo modo, podríamos crear mejores refugios anticatástrofes, lo que reduciría las probabilidades de extinción por pandemias, invierno nuclear y asteroides (aunque no por IA), al tiempo que aumentaría las probabilidades de recuperación tras una catástrofe. Ahora mismo, estas medidas no parecen tan eficaces como reducir los riesgos en primer lugar, pero siguen siendo útiles. Una opción más desatendida, y quizá mucho más barata, es crear fuentes alternativas de alimentos, como las que pueden producirse sin luz, y que pudieran ampliarse rápidamente en un invierno prolongado.
Dado que los esfuerzos amplios ayudan aunque no estemos seguros de los detalles de los riesgos, son más atractivos cuanto mayor es la incertidumbre. A medida que nos acerquemos a los riesgos, deberemos reasignar gradualmente los recursos de esfuerzos amplios a esfuerzos focalizados (más información).
Nuestra expectativa es que hay muchas otras intervenciones amplias prometedoras, pero es un campo en el que se ha investigado poco. Por ejemplo, otro enfoque podría consistir en mejorar la coordinación internacional. Puesto que estos riesgos son causados por la humanidad, pueden ser prevenidos por la humanidad, pero lo que nos detiene es la dificultad de coordinación. Por ejemplo, Rusia no quiere desarmarse porque eso la pondría en desventaja frente a EE. UU., y viceversa, aunque ambos países estarían mejor si no hubiera posibilidad de guerra nuclear.
Sin embargo, quizá sea posible mejorar nuestra capacidad de coordinación como civilización, por ejemplo, mejorando las relaciones exteriores o desarrollando mejores instituciones internacionales. Nos gustaría que se investigaran más este tipo de propuestas.
Los esfuerzos generales para hacer el bien, como la mejora de la educación y el desarrollo internacional, también pueden ayudar a que la sociedad sea más resiliente y sabia, y contribuir así a reducir los riesgos catastróficos. Por ejemplo, una población mejor educada probablemente elegiría líderes más ilustrados y los países más ricos son, en igualdad de condiciones, más capaces de prevenir pandemias: no es casualidad que el ébola se desarrollara en algunas de las zonas más pobres de África occidental.
Pero no consideramos que la educación y la salud sean las mejores áreas en las que centrarse por dos razones. En primer lugar, estas áreas están mucho menos desatendidas que los enfoques menos convencionales que hemos tratado. De hecho, mejorar la educación es quizá la causa más popular para las personas que quieren hacer el bien y es una intervención que solamente en Estados Unidos recibe 800 000 millones de dólares de financiación gubernamental y otro billón de dólares de financiación privada. En segundo lugar, estos enfoques tienen efectos mucho más difusos en la reducción de estos riesgos: habría que mejorar la educación a muy gran escala para tener algún efecto perceptible. Preferimos centrarnos en soluciones más focalizadas y desatendidas.
Tenemos muchas dudas sobre cuáles son los mayores riesgos, qué es lo mejor que podemos hacer al respecto y si nuestra visión general de las prioridades globales podría estar totalmente equivocada. Esto significa que otro objetivo clave es aprender más sobre todas estas cuestiones.
Podemos aprender más simplemente intentando reducir estos riesgos y viendo qué progresos se pueden lograr. Sin embargo, creemos que la forma más desatendida e importante de aprender más ahora mismo es realizar investigación sobre prioridades globales.
Se trata de una combinación de economía y filosofía moral cuyo objetivo es responder a preguntas de alto nivel sobre las cuestiones más importantes para la humanidad. Solo hay un puñado de investigadores que trabajen a tiempo completo en estas cuestiones.
Otra forma de gestionar la incertidumbre es acumular recursos que puedan utilizarse en el futuro, cuando se disponga de mayor información. Una forma de hacerlo es ganar y ahorrar dinero. Asimismo, uno puede invertir en su capital profesional, sobre todo en habilidades transferibles y conexiones influyentes, con el objetivo de lograr mayores resultados en el futuro.
Sin embargo, creemos que un enfoque potencialmente mejor que cualquiera de estos dos es construir una comunidad que se centre en reducir estos riesgos, sean cuales fueren. La razón por la que esto puede ser mejor es que es posible hacer crecer la capacidad de una comunidad más rápido de lo que puedes hacer crecer tu riqueza individual o tu capital profesional. Por ejemplo, si pasas un año haciendo actividades de divulgación individualizadas, no es imposible que encuentres a otra persona con conocimientos relevantes que quiera unirse a ti. Esto supondría un rendimiento anual para la causa de aproximadamente el 100 %.
Ahora mismo, estamos centrados en el desarrollo del altruismo eficaz, que incluye a muchas personas que quieren reducir estos riesgos. Además, la reciente tasa de crecimiento y los estudios de esfuerzos específicos para hacer crecer la comunidad sugieren que es posible obtener altas tasas de retorno.
Sin embargo, esperamos que otros esfuerzos para desarrollar la comunidad también sean valiosos. Sería espléndido ver a una comunidad de científicos intentando promover una cultura de la seguridad en el mundo académico. Sería espléndido ver una comunidad de responsables políticos que quisieran intentar reducir estos riesgos y hacer que el gobierno se preocupara más por las generaciones futuras.
Dado el escaso número de personas que trabajan activamente en la reducción de estos riesgos, esperamos que se pueda hacer mucho para crear un movimiento en torno a ellos.
Teniendo en cuenta todos los enfoques para reducir estos riesgos y los pocos recursos que se dedican a algunos de ellos, parece que es posible realizar progresos sustanciales.
De hecho, incluso si solo consideramos el impacto de estos riesgos en la generación actual (ignorando cualquier beneficio para las generaciones futuras), es probable que sean la máxima prioridad.
He aquí algunas cifras muy aproximadas y simplificadas, solo para ilustrar cómo esto sería posible. Nos parece plausible que invirtiendo 100 000 millones de dólares en reducir la amenaza existencial se consiga reducirla en más de un 1 % a lo largo del próximo siglo. Se esperaría que una reducción del riesgo de un punto porcentual salvara unos 100 millones de vidas en la generación presente (el 1 % de unos 10 000 millones de personas vivas hoy). Esto significaría que la inversión salvaría vidas por apenas 1 000 dólares por persona.u
Greg Lewis ha realizado una estimación más detallada, que llega a una media de 9 200 dólares por año de vida salvado en la generación presente (o unos 300 000 dólares por vida).v También hay más estimaciones en los comentarios. En nuestra opinión, es probable que Greg sea demasiado conservador, porque asume que el riesgo de extinción es solo del 1 % durante el próximo siglo, cuando nuestra estimación es que es varias veces más alto. También creemos que los próximos mil millones de dólares gastados en reducir el riesgo existencial podrían lograr una mayor reducción del riesgo de lo que Greg supone (nótese que esto solamente es cierto si la suma se gastara en los temas más desatendidos como la seguridad de la IA y el riesgo biológico). Como resultado, no nos sorprendería que el costo por vida salvada para los próximos mil millones de dólares invertidos en reducir el riesgo existencial sea inferior a 100 dólares.
La organización benéfica recomendada en primer lugar por GiveWell, la Against Malaria Foundation (AMF), suele ser presentada como una de las mejores formas de ayudar a la generación presente y salva vidas por unos 7 500 dólares (cifras de 2017).w Entonces, según las estimaciones anteriores, la reducción de la amenaza existencial sería una opción mejor para salvar vidas en la generación presente, o estaría situada en el mismo rango de costo-eficacia que AMF, una organización benéfica que fue seleccionada específicamente por destacar en esa dimensión.
Del mismo modo, pensamos que si 10 000 jóvenes con talento centraran sus carreras profesionales en estos riesgos, podrían lograr algo así como una reducción del 1 % de los riesgos. Eso significa que cada persona salvaría 1 000 vidas de la generación presente, en términos esperados, a lo largo de su carrera profesional, lo que probablemente es mejor de lo que podría lograr si ganara para donar a la Against Malaria Foundation.x
En cierto sentido, se trata de comparaciones injustas, porque la estimación de GiveWell es mucho más sólida y está mejor documentada, mientras que la nuestra es más bien una suposición informada. También puede haber mejores formas de ayudar a la generación presente que donar a AMF (por ejemplo, la promoción de políticas).
Sin embargo, también hemos subestimado drásticamente los beneficios de reducir las amenazas existenciales. La principal razón para salvaguardar la civilización no es beneficiar a la generación presente, sino a las generaciones futuras. Las hemos ignorado en esta estimación.
Si también tenemos en cuenta a las generaciones futuras, entonces la eficacia de reducir las amenazas existenciales es órdenes de magnitud superior, y es difícil imaginar una prioridad más urgente en estos momentos.
A continuación, puedes leer algunas respuestas a estos argumentos o saltar a las formas prácticas de contribuir.
Los argumentos presentados se basan en algunos supuestos que no todo el mundo aceptará. Aquí presentamos algunas de las mejores respuestas a estos argumentos.
Solo estamos hablando de cuál debe ser la prioridad si intentas ayudar a la gente en general, tratando los intereses de todos por igual (lo que los filósofos llaman a veces “altruismo imparcial”).
A la mayoría de la gente le importa ayudar a los demás hasta cierto punto: si puedes ayudar a un extraño a bajo costo, eso es bueno. A la gente también le importa que su vida vaya bien y ocuparse de sus amigos y familiares, y a nosotros nos pasa lo mismo.
Cómo equilibrar estas prioridades es una cuestión difícil. Si tienes la suerte de poder contribuir a mejorar el mundo, creemos que debes centrarte en salvaguardar el futuro. En la siguiente sección se enumeran formas concretas de participar.
De lo contrario, quizá debas centrarte en tu vida personal en este momento, contribuyendo en el margen o en el futuro.
No disponemos de estimaciones sólidas de muchos de los riesgos causados por el hombre, así que podrías intentar hacer tus propias estimaciones y llegar a la conclusión de que son mucho menores de lo que hemos sostenido. Si fueran lo suficientemente bajos, reducirlos dejaría de ser la máxima prioridad.
Ello no nos parece plausible por las razones expuestas. Si se tienen en cuenta todos los riesgos potenciales, parece difícil confiar en que sean inferiores al 1 % a lo largo del siglo, e incluso un riesgo del 1 % probablemente justifique muchas más medidas de las que vemos actualmente.
Consideramos que estos riesgos son menos “solucionables” que cuestiones como la salud global, por lo que esperamos que los avances sean más difíciles por dólar invertido. Dicho esto, creemos que su escala y desatención son una compensación más que suficiente, por lo que las intervenciones en este campo acaban siendo más eficaces en términos esperados. Mucha gente cree que el altruismo eficaz consiste en apoyar únicamente intervenciones “probadas”, pero eso es un mito. Vale la pena llevar a cabo intervenciones que solo tienen una pequeña probabilidad de tener éxito, si los beneficios son lo suficientemente grandes. El principal financiador de la comunidad aboga ahora por un enfoque de la “filantropía basada en los éxitos”.
Sin embargo, si fueras mucho más pesimista que nosotros sobre las posibilidades de progreso, entonces sería mejor trabajar en problemas más convencionales, como la salud global.
Personalmente, podríamos centrarnos en otro problema si se invirtieran dos órdenes de magnitud más de recursos en reducir estos riesgos. Pero falta mucho para que eso ocurra.
Una respuesta relacionada es que ya estamos tomando las mejores medidas para reducir estos riesgos. Esto significaría que los riesgos no justifican un cambio de prioridades en la práctica. Por ejemplo, antes hemos mencionado que la educación probablemente ayuda a reducir los riesgos. Si pensáramos que la educación es la mejor respuesta (quizá porque no estamos seguros de cuáles son los riesgos más urgentes), como ya invertimos mucho en educación, podríamos pensar que la situación ya está controlada. Esto no nos parece plausible porque, tal y como hemos señalado, hay un montón de oportunidades no aprovechadas para reducir estos riesgos que parecen más focalizadas y desatendidas.
Otro ejemplo de este tipo es la afirmación de algunos economistas de que deberíamos centrarnos en el crecimiento económico, ya que eso nos colocará en la mejor posición posible para afrontar los riesgos en el futuro. No nos parece plausible porque algunos tipos de crecimiento económico aumentan los riesgos (por ejemplo, el descubrimiento de nuevas armas), por lo que no está claro que el crecimiento económico sea una forma óptima de reducir los riesgos. En su lugar, nos centraríamos al menos en el desarrollo tecnológico diferencial o en otros esfuerzos más específicos enumerados anteriormente.
Aunque reducir estos riesgos vale la pena de cara a la generación presente, gran parte de su importancia proviene de sus efectos a largo plazo: una vez que desaparece la civilización, perdemos todo nuestro futuro.
Se podría pensar que hay otras acciones que la generación presente podría llevar a cabo, que tendrían efectos a muy largo plazo y que podrían ser igualmente importantes para reducir el riesgo de extinción. En concreto, podríamos mejorar la calidad del futuro impidiendo que nuestra civilización quede atrapada permanentemente en malos resultados.
Esto podría sonar a ciencia ficción, pero tengan paciencia. Una posibilidad que se ha planteado es que las nuevas tecnologías, como la vigilancia extrema o el condicionamiento psicológico, permitan crear un gobierno totalitario al que nunca se pueda poner fin. Este sería el escenario de 1984 y Un mundo feliz, respectivamente. Si este gobierno fuera malo, entonces la civilización podría tener un destino peor que la extinción, haciéndonos sufrir durante milenios.
Otros han planteado la preocupación de que el desarrollo de sistemas avanzados de IA podría causar daños terribles si se hace de forma irresponsable, quizá porque existe un conflicto entre varios grupos que compiten por desarrollar la tecnología. En concreto, si en algún momento del futuro el desarrollo de estos sistemas implica la creación de mentes digitales sintientes, su bienestar podría adquirir una importancia extraordinaria.
Los riesgos de un futuro con una cantidad astronómica de sufrimiento se han denominado “riesgos S”.y Si hay algo que podamos hacer hoy para evitar que se produzca un riesgo S (por ejemplo, mediante la investigación específica en la seguridad técnica de la IA y la gobernanza de la IA), podría ser aún más importante. Otro aspecto que hay que tener en cuenta son las grandes transiciones tecnológicas. En este artículo hemos mencionado los peligros de la ingeniería genética y la inteligencia artificial, pero estas tecnologías también podrían crear una segunda Revolución Industrial y tener efectos muy positivos una vez desarrolladas. Hay cosas que podemos hacer para aumentar la probabilidad de una buena transición, en lugar de disminuir el riesgo de una mala transición. A esto se le ha llamado intentar aumentar la “esperanza existencial” en lugar de disminuir el “riesgo existencial”.10
Estamos de acuerdo en que puede haber otras formas de conseguir efectos a muy largo plazo y que estas pueden ser más apremiantes que reducir el riesgo de extinción. Sin embargo, la mayoría de estas propuestas aún no están tan bien elaboradas y no estamos seguros de qué hacer con ellas.
El principal resultado práctico de considerar estas otras formas de influir en el futuro es que creemos que es aún más importante gestionar de forma positiva la transición a nuevas tecnologías transformadoras, como la IA. También acrecienta nuestro interés en que haya más investigación sobre prioridades globales que estudien estas cuestiones. En general, seguimos pensando que tiene sentido centrarse primero en reducir las amenazas existenciales y luego dirigir nuestra atención a otras formas de ayudar al futuro.
Una forma de ayudar al futuro que no nos parece una opción factible es acelerarlo. Algunas personas que quieren ayudar al futuro se centran en el progreso tecnológico, como el desarrollo de nuevas vacunas, y es cierto que esto genera beneficios a largo plazo. Sin embargo, creemos que lo más importante desde una perspectiva a largo plazo es dónde acabamos, más que lo rápido que lleguemos. Descubrir una nueva vacuna probablemente signifique que la desarrollemos antes en lugar de después, y no que la desarrollemos en lugar de no desarrollarla en absoluto.
Además, como la tecnología es también la causa de muchos de estos riesgos, no está claro hasta qué punto acelerarla ayuda a corto plazo. Acelerar el progreso es también algo mucho menos desatendido, ya que beneficia también a la generación presente. Como decíamos, cada año se gasta más de un billón de dólares en investigación y desarrollo para crear nuevas tecnologías. Por tanto, la aceleración es menos importante y menos desatendida.
Para saber más sobre otras formas de ayudar a las generaciones futuras, véase el capítulo 3 de On the Overwhelming Importance of Shaping the Far Future del Dr. Nick Beckstead.
Si crees que está prácticamente garantizado que la civilización no durará mucho tiempo, entonces el valor de reducir estos riesgos se reduce significativamente (aunque quizá siga valiendo la pena tomar medidas para ayudar a la generación actual y a cualquier pequeño número de generaciones futuras).
Estamos de acuerdo en que hay una probabilidad significativa de que la civilización acabe pronto (por eso este tema es tan importante), pero también creemos que hay una probabilidad suficientemente grande de que pueda durar mucho tiempo, lo que hace que valga la pena luchar por el futuro.
Del mismo modo, si pensamos que la probabilidad de un futuro malo es mayor que la de un futuro bueno (o si creemos que la obligación de reducir el sufrimiento es mucho mayor que la de aumentar el bienestar), entonces el valor de reducir estos riesgos disminuye. Sin embargo, no creemos que esto sea probable, porque la gente desea que el futuro sea bueno, así que intentaremos que sea más bueno que malo. También creemos que ha habido un progreso moral significativo en los últimos siglos (debido a las tendencias señaladas anteriormente) y somos optimistas con respecto a su continuidad de cara al futuro.z
Es más, aunque no estés seguro de cuán bueno que será el futuro o sospeches que será malo en aspectos que quizá podamos evitar en el futuro, puede que quieras que la civilización sobreviva y mantenga sus opciones abiertas. La gente del futuro tendrá mucho más tiempo para estudiar si es deseable que la civilización se expanda, mantenga el mismo tamaño o se reduzca. Si crees que hay una probabilidad significativa de que seamos capaces de actuar sobre la base de esas preocupaciones morales, esa es una buena razón para dejar cualquier decisión final a la sabiduría de las generaciones futuras. En general, tenemos muchas dudas sobre estas cuestiones generales, pero eso hace que nos preocupemos más por evitar compromisos irreversibles.aa
Más allá de eso, probablemente deberías centrar tu atención en formas de reducir la probabilidad de que el futuro sea malo, como evitar los riesgos S.
Si crees que tenemos obligaciones mucho mayores con la generación presente que con las generaciones futuras (como las perspectivas éticas centradas en las personas afectadas), entonces la importancia de reducir estos riesgos disminuiría. Personalmente, no creemos que estos puntos de vista sean especialmente convincentes. Dicho esto, hemos argumentado que, aunque ignores a las generaciones futuras, parece que vale la pena ocuparse de estos riesgos. Los esfuerzos sugeridos podrían salvar la vida de la generación presente de forma relativamente barata y podrían evitar mucho sufrimiento ocasionado por catástrofes de tamaño medio.
Es más, si no tienes la seguridad de que tengamos obligaciones morales con las generaciones futuras, entonces deberías intentar de nuevo mantener tus opciones abiertas, lo que significa salvaguardar la civilización.
Sin embargo, si crees que no tenemos grandes obligaciones con las generaciones futuras y que los riesgos son también relativamente irresolubles (o que no hay ninguna investigación útil que hacer), entonces otra forma de ayudar a las generaciones presentes podría imponerse. Esto podría significar trabajar en la salud global o en la salud mental. Alternativamente, podrías pensar que hay otra cuestión moral más importante, como la cría intensiva de animales.
Nuestra generación puede contribuir a provocar el fin de todo lo conocido o guiar a la humanidad en su periodo más peligroso y convertirnos en una de las generaciones más importantes de la historia.
Podemos ser la generación que haga posible alcanzar un mundo asombroso y floreciente, o la que ponga todo en peligro.
Como personas que queremos ayudar al mundo, es aquí donde debemos centrar nuestros esfuerzos.
Si quieres centrar tu carrera profesional en reducir las amenazas existenciales y salvaguardar el futuro de la humanidad, queremos ayudarte. Hemos escrito un artículo en el que se describen tus opciones y los pasos que puedes dar para empezar.
Cómo utilizar tu carrera profesional para reducir las amenazas existenciales
Una vez que hayas leído el artículo, o si ya has pensado en lo que quieres hacer, considera la posibilidad de hablar con nosotros cara a cara. Podemos ayudarte a reflexionar sobre tus decisiones y a formular tu plan.
Solicita asesoramiento personalizado
Este artículo forma parte de nuestra serie avanzada. Consulta la serie completa o continúa leyendo: