Resumen: Defensa del largoplacismo fuerte
El presente es un resumen del documento del Global Priorities Institute, The case for strong longtermism de Hilary Greaves y William MacAskill. El resumen ha sido elaborado por Elliott Thornley.
En este artículo, Greaves y MacAskill presentan argumentos en favor del largoplacismo fuerte, la idea de que la característica más importante de nuestras acciones presentes es su efecto en el futuro lejano. Afirman que el largoplacismo fuerte es de suma importancia y que, de adoptarse ampliamente, cambiarían muchas de nuestras prioridades.
El trabajo defiende dos versiones de largoplacismo fuerte. La primera versión es axiológica y se refiere al valor de nuestras acciones. La segunda versión es deóntica y se refiere a lo que debemos hacer. Según el largoplacismo fuerte axiológico (LFA), los efectos sobre el futuro lejano son los factores determinantes más importantes del valor de nuestras acciones. Según el largoplacismo fuerte deóntico (LFD), los efectos sobre el futuro lejano son los factores determinantes más importantes de lo que debemos hacer. El documento argumenta que ambas posturas son verdaderas incluso si trazamos el límite entre el futuro cercano y el futuro lejano en un plazo sorprendentemente alejado del presente: digamos, unos cien años.
El argumento a favor del LFA se basa en dos premisas clave. La primera es que el número esperado de vidas futuras es enorme. Si hubiera tan solo una probabilidad del 0,1 % de que la humanidad sobreviva hasta que la Tierra se vuelva inhabitable —mil millones de años a partir del presente— con al menos 10 000 millones de vidas por siglo, la población futura esperada sería de 100 billones (1014) como mínimo. De existir alguna probabilidad significativa de que la humanidad se extienda por el espacio o cree seres digitales sintientes, el número esperado de vidas futuras sería todavía mayor. Consideraciones de este tipo llevan a Greaves y a MacAskill a concluir que, de acuerdo con cualquier estimación razonable, la población futura esperada es de al menos 1024 vidas.
La segunda premisa clave del argumento a favor del LFA es que podemos mejorar el futuro lejano de manera predecible y eficaz. Podemos tener un impacto perdurable en el futuro al menos de dos maneras: reduciendo el riesgo de extinción prematura de la humanidad y guiando el desarrollo de la superinteligencia artificial.
Consideremos primero la extinción. Tanto la supervivencia humana como la extinción humana son estados persistentes. Son estados que, una vez que se producen, tienden a persistir por mucho tiempo. Estos estados también difieren en cuanto a su valor en el largo plazo. Es razonable pensar que nuestra supervivencia durante el próximo siglo y más allá es mejor que nuestra extinción en el futuro cercano. Por tanto, podemos tener un efecto perdurable en el futuro reduciendo el riesgo de una extinción humana prematura.
Financiar la detección de asteroides es una forma de reducir este riesgo. Newberry calcula que si se gastan 1 200 millones de dólares en detectar todos los asteroides restantes de al menos 10 kilómetros de diámetro, la posibilidad de extinguirnos en los próximos cien años disminuiría en 1 en 300 000 millones.1 Considerando una población futura esperada de 1024 habitantes, el resultado sería aproximadamente 300 000 vidas esperadas adicionales por cada 100 dólares gastados. La prevención de futuras pandemias es otra manera de reducir el riesgo de extinción humana prematura. Basándose en Millet y Snyder-Beattie,2 Greaves y MacAskill calculan que gastar 250 000 millones de dólares en fortalecer nuestros sistemas de salud reduciría el riesgo de extinción en los próximos cien años en aproximadamente 1 en 2 200 000, con lo que se podría esperar unos 200 millones de vidas adicionales por cada 100 dólares gastados. En comparación, las mejores intervenciones disponibles enfocadas en el corto plazo salvan aproximadamente 0,025 vidas por cada 100 dólares.3 Nuevas investigaciones podrían revelar más oportunidades para mejorar el futuro cercano, pero parece improbable que las intervenciones centradas en el corto plazo puedan igualar la relación costo-eficacia de la prevención de pandemias en el largo plazo.
Por supuesto, el argumento a favor de la reducción del riesgo de extinción depende de nuestro enfoque moral. Si adoptamos para las generaciones futuras un enfoque centrado en las personas afectadas4 —según el cual importa hacer que las vidas existentes sean buenas, pero no hacer que existan buenas vidas— entonces la falta de vidas futuras no sería una pérdida tan grande, y la extinción no sería tan mala. Por otro lado, si nuestra expectativa es que la supervivencia a largo plazo de la humanidad será negativa en términos netos, podríamos juzgar que la extinción en el corto plazo es el mal menor.
Sin embargo, el argumento a favor del largoplacismo fuerte se sostiene incluso desde estas perspectivas. Ello se debe a que reducir el riesgo de extinción prematura de los seres humanos no es la única manera de influir en el futuro lejano. También podemos influir en él (por ejemplo) guiando el desarrollo de la superinteligencia artificial (SIA). Dado que es probable que la SIA sea influyente y perdurable, es poco probable que se disipe cualquier efecto que pudiéramos tener sobre su desarrollo. Ayudando a asegurar que la SIA esté alineada con los valores correctos podemos disminuir la probabilidad de que el futuro lejano contenga una gran cantidad de vidas malas. Eso es importante desde todas las perspectivas morales razonables.
Si bien hay mucha incertidumbre en las estimaciones de la relación costo-eficacia mencionadas más arriba, esta incertidumbre no socava los argumentos a favor del LFA porque también tenemos opciones “meta” para mejorar el futuro lejano. Por ejemplo, podemos seguir investigando la relación costo-eficacia de las distintas iniciativas largoplacistas y podemos invertir recursos para consumirlos en algún momento futuro.
Greaves y MacAskill luego tratan dos objeciones al argumento. La primera es que nos encontramos en una situación de ignorancia extrema respecto de los efectos de nuestras acciones en el futuro lejano. Los autores exploran cinco formas de precisar esta objeción: apelando a la simple ignorancia extrema, al desconocimiento consciente, a la arbitrariedad, a la imprecisión y a la aversión a la ambigüedad. Llegan a la conclusión de que ninguna socava el argumento. La segunda objeción es que el argumento a favor del LFA depende de pequeñas probabilidades de valores enormes, y que ir tras estas pequeñas probabilidades es un ejemplo de fanatismo. Por ejemplo, podría considerarse fanatismo gastar 1 000 millones de dólares en la alineación de la SIA para lograr una probabilidad de 1 en 100 000 de prevenir una catástrofe, cuando casi con total certeza se podría usar ese dinero para ayudar a muchas personas en el corto plazo. Greaves y MacAskill consideran que esta es una de las objeciones más persuasivas en contra del largoplacismo fuerte, pero ofrecen dos respuestas. En primer lugar, que negar el fanatismo tiene consecuencias poco plausibles,5 de modo que en general tal vez deberíamos ser fanáticos. En segundo lugar, que las probabilidades involucradas en el argumento a favor del largoplacismo fuerte podrían no ser tan pequeñas como para que el fanatismo se vuelva un problema. De este modo, los autores concluyen provisionalmente que la objeción del fanatismo no socava el argumento a favor del largoplacismo fuerte.
A continuación, Greaves y MacAskill defienden el largoplacismo fuerte deóntico, que sostiene que los efectos sobre el futuro lejano son el factor determinante más importante de lo que debemos hacer. Su “argumento de sensibilidad a lo que está en juego” emplea la siguiente premisa:
En situaciones en las que (1) algunas acciones tienen efectos mucho mejores que todas las demás, (2) el costo personal de realizar estas acciones es comparativamente pequeño y (3) estas acciones no violan ninguna restricción moral seria, debemos realizar una de estas acciones.
Greaves y MacAskill sostienen que (1), (2) y (3) se cumplen en las situaciones de decisión más importantes que enfrentamos hoy en día. Acciones como donar para prevenir pandemias y guiar el desarrollo de la SIA cumplen con las tres condiciones: sus efectos son mucho mejores que los de todas las demás, los costos personales que conllevan son pequeños y son acciones que no violan ninguna restricción moral grave. Por lo tanto, debemos realizar estas acciones. Dado que el largoplacismo fuerte axiológico es verdadero, son los efectos de estas acciones en el futuro lejano los que hacen que sus efectos en general sean los mejores, y el largoplacismo fuerte deóntico se sigue de ello.
El documento concluye con un resumen del argumento y sus consecuencias prácticas. El futuro de la humanidad podría ser enorme, y podemos influir en su rumbo. Eso sugiere que el largoplacismo fuerte es verdadero: el impacto en el futuro lejano es la característica más importante de nuestras acciones presentes.