Desperdicio astronómico: el costo de oportunidad de retrasar el desarrollo tecnológico
Mientras escribo estas palabras, los soles iluminan y calientan espacios vacíos, la energía no utilizada es desechada por agujeros negros y nuestra gran dotación común de neguentropía se degrada irreversiblemente en entropía a escala cósmica. Se trata de recursos que una civilización avanzada podría haber utilizado para crear estructuras de valor, como seres sintientes que viven vidas con un saldo positivo de bienestar.
El ritmo de esta pérdida nos deja perplejos. Un artículo reciente especula, utilizando consideraciones teóricas aproximadas basadas en la tasa de aumento de la entropía, que el número de vidas humanas potenciales que se pierden en nuestro propio supercúmulo galáctico es de al menos ~1046 por siglo de colonización retrasada.1 Esta estimación supone que toda la entropía perdida podría haberse utilizado con fines productivos, aunque ningún mecanismo tecnológico conocido actualmente es ni remotamente capaz de hacerlo. Dado que la estimación pretende ser un límite inferior, una suposición tan poco conservadora resulta inapropiada.
Sin embargo, podemos obtener un límite inferior de forma más directa simplemente contando el número de estrellas de nuestro supercúmulo galáctico y multiplicando este número por el poder de cómputo que los recursos de cada estrella podrían generar utilizando tecnologías cuya viabilidad ya se ha demostrado fehacientemente. Luego podemos dividir este total por la cantidad estimada de poder de cómputo necesaria para simular una vida humana.
Como aproximación, digamos que el supercúmulo de Virgo contiene 1013 estrellas. Una estimación del poder de cómputo que podría extraerse de una estrella con una estructura computacional asociada del tamaño de un planeta utilizando nanotecnología molecular avanzada2 es de 1042 operaciones por segundo.3 Una estimación típica del poder de cómputo del cerebro humano es de aproximadamente 1017 operaciones por segundo o menos.4 No parece que se necesite mucho más para simular las partes relevantes del entorno con el suficiente detalle como para que las mentes simuladas tengan experiencias indistinguibles de las experiencias humanas actuales típicas.5 Dadas estas estimaciones, se deduce que se pierde el potencial de aproximadamente 1038 vidas humanas cada siglo que se retrasa la colonización de nuestro supercúmulo local; o, lo que es lo mismo, unas 1029 vidas humanas potenciales por segundo.
Aunque esta es una estimación conservadora, en el sentido de que solo asume mecanismos computacionales cuya implementación ha sido al menos esbozada en la literatura, es útil tener una estimación aún más conservadora que no asuma una instanciación no biológica de las personas potenciales. Supongamos que alrededor de 1010 seres humanos biológicos podrían sostenerse en torno a una estrella media. Entonces el Supercúmulo de Virgo podría contener 1023 humanos biológicos. Esto corresponde a una pérdida de potencial equivalente a unas 1014 vidas humanas potenciales por segundo de colonización retrasada.
Lo que importa en este contexto no son las cifras exactas, sino el hecho de que son enormes. Incluso con la estimación más conservadora, suponiendo una implementación biológica de todas las personas, se pierde el potencial de cien billones (1014) de seres humanos potenciales por cada segundo que se retrasa la colonización de nuestro supercúmulo.a
Desde una perspectiva utilitarista, esta enorme pérdida de vidas humanas potenciales constituye una pérdida de valor potencial igualmente enorme. Asumo aquí que las vidas humanas que podrían haberse creado habrían sido vidas con un saldo positivo de bienestar. Dado que se suele suponer que incluso las vidas humanas actuales suelen satisfacer esa condición, se trata de un supuesto poco controvertido. Cualquier civilización lo suficientemente avanzada como para colonizar el supercúmulo local probablemente también tendría la capacidad de establecer al menos las condiciones mínimamente favorables necesarias para que las vidas futuras tuvieran un saldo positivo de bienestar.
El efecto sobre el valor total, por tanto, parece mayor para las acciones que aceleran el desarrollo tecnológico que para prácticamente cualquier otra acción posible. El avance de la tecnología (o de los factores que la hacen posible, como la productividad económica), aunque sea tan ínfimo que lleve a la colonización del supercúmulo local solo un segundo antes de lo que habría sucedido de otro modo, equivale a más de 1029 vidas humanas (o 1014 vidas humanas si utilizamos el límite inferior más conservador) que de lo contrario no habrían existido. Pocas otras causas filantrópicas podrían aspirar a igualar ese nivel de beneficio utilitarista.
Los utilitaristas no son los únicos que deberían oponerse firmemente al desperdicio astronómico. Hay muchos puntos de vista sobre lo que tiene valor que coincidirían con la apreciación de que el ritmo actual de desperdicio constituye una enorme pérdida de valor potencial. Por ejemplo, podemos adoptar una concepción del bienestar humano más amplia de lo que suelen suponer los utilitaristas (ya sean de tendencia hedonista, experiencialista o de satisfacción del deseo), como una concepción que asigne valor también al florecimiento humano, las relaciones sociales valiosas, el carácter noble, la expresión individual, la apreciación estética, etc. Siempre y cuando la función de evaluación sea agregativa (es decir, que no cuente menos el bienestar de una persona meramente porque haya muchas otras personas que también gozan de vidas felices) y no se relativice a un punto concreto en el tiempo (sin descuento temporal), la conclusión se mantendrá.
Estas condiciones pueden relajarse aún más. Incluso si la función de bienestar no es perfectamente agregativa (tal vez porque uno de los componentes del bien es la diversidad, cuya tasa marginal de producción podría disminuir con el aumento del tamaño de la población), aún puede producir un resultado final similar siempre que al menos algún componente significativo del bien sea suficientemente agregativo. Del mismo modo, se podría dar cabida a cierto descuento temporal de bienes futuros sin que ello altere la conclusión.b
A la luz de la discusión anterior, puede parecer que un utilitarista debería centrar sus esfuerzos en acelerar el desarrollo tecnológico. La recompensa por lograr este objetivo, aunque sea en un grado mínimo, es tan enorme que empequeñece la de casi cualquier otra actividad. Parece que tenemos un argumento utilitarista a favor de la mayor urgencia posible del desarrollo tecnológico.
Sin embargo, la verdadera lección es otra. Si lo que nos preocupa es (algo así como) maximizar el número esperado de vidas valiosas que crearemos en algún momento, entonces además del costo de oportunidad de la colonización retrasada tenemos que tener en cuenta el riesgo de no colonizar nunca. Podríamos ser víctimas de un riesgo existencial, en el que un resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría su potencial de forma permanente y drástica.6 Dado que la vida de las galaxias se mide en miles de millones de años, mientras que la escala temporal de cualquier retraso en el que pudiéramos influir de forma realista se mediría más bien en años o décadas, la consideración del riesgo prevalece sobre la del costo de oportunidad. Por ejemplo, un solo punto porcentual de reducción de los riesgos existenciales equivaldría (desde el punto de vista utilitarista de la utilidad esperada) a un retraso de más de 10 millones de años.
Por lo tanto, si nuestras acciones tienen el más mínimo efecto sobre la probabilidad de una eventual colonización, este será mayor que su efecto sobre el momento en que ocurra esa colonización. Para los utilitaristas clásicos, la prioridad número uno, dos, tres y cuatro debería ser, en consecuencia, reducir el riesgo existencial. El imperativo utilitarista “¡Hay que maximizar la utilidad esperada agregada!” puede reducirse al de “¡Hay que minimizar el riesgo existencial!”.
El argumento anterior presupone que nuestra preocupación es maximizar la cantidad total de bienestar. Supongamos, en cambio, que adoptamos una versión del utilitarismo “centrada en las personas afectadas”, según la cual nuestras obligaciones son principalmente hacia las personas que existen en la actualidad y hacia las que existirán en el futuro.c Según esta perspectiva centrada en las personas afectadas, la extinción humana sería mala solo porque empeora las vidas pasadas o en curso, no porque constituye una pérdida de vidas felices potenciales. ¿Qué deberían hacer quienes suscriben a esta doctrina? ¿Deberían enfatizar la velocidad, la seguridad, o alguna otra consideración?
Para responder a estos interrogantes, debemos considerar algunas cuestiones adicionales. Supongamos que uno piensa que es sumamente improbable que una persona de hoy sobreviva lo suficiente como para llegar a utilizar una parte significativa de los recursos astronómicos accesibles, que, como se describe en la sección inicial de este artículo, se están desperdiciando gradualmente. Entonces la razón para minimizar el riesgo existencial es que una extinción repentina recortaría una media de, digamos, 40 años de cada una de las vidas humanas actuales (seis mil millones, más o menos).d Aunque esto sería, sin duda, un terrible desastre, es comparable a otras tragedias humanas en curso, como la pobreza global, el hambre y las enfermedades. En este caso, un utilitarista centrado en las personas afectadas debería considerar la reducción del riesgo existencial una preocupación muy importante, pero no totalmente dominante. En este caso no habría una respuesta fácil a la pregunta sobre lo que debería hacer. Dónde debería centrar sus esfuerzos dependería de cálculos detallados sobre qué área de la actividad filantrópica esta persona se encontraría mejor situada para hacer una contribución.
Sin embargo, se podría decir que deberíamos asignar una probabilidad no despreciable a que algunas personas actuales sobrevivan lo suficiente como para cosechar los beneficios de una diáspora cósmica. La llamada “singularidad” tecnológica podría producirse durante nuestra vida natural,7 o bien podría producirse un gran avance en la prolongación de la vida, provocado, quizás, por la nanotecnología, que nos daría un control sin precedentes sobre los procesos bioquímicos de nuestro cuerpo y nos permitiría detener e invertir el proceso de envejecimiento.8 Muchos destacados tecnólogos y pensadores futuristas asignan una probabilidad bastante alta a que estos avances se produzcan en las próximas décadas.9 Incluso si uno es escéptico sobre sus pronósticos, hay que tener en cuenta el pobre historial de la pronosticación tecnológica. En vista de que sabemos que muchos de estos pronósticos son poco fidedignos, tampoco parece justificado confiar tanto en la predicción de que los avances necesarios no se producirán en nuestra época como para asignar a la hipótesis de que sí lo harán una probabilidad inferior a, digamos, un 1 %.
La utilidad esperada de una probabilidad del 1 % de conseguir un bien astronómicamente grande podría ser también astronómica. Pero, ¿hasta qué punto sería bueno para (algún subconjunto sustancial de) las personas que viven actualmente tener acceso a cantidades astronómicas de recursos? La respuesta no es obvia. Por un lado, se podría reflexionar sobre el hecho de que, en el mundo actual, la utilidad marginal de los recursos materiales para un individuo disminuye con bastante rapidez una vez satisfechas sus necesidades básicas. El nivel de bienestar de Bill Gates no parece superar dramáticamente el de muchas personas de medios mucho más modestos. Por otro lado, las tecnologías avanzadas, como las que probablemente se utilizarán cuando podamos colonizar el supercúmulo local, pueden proporcionar nuevas formas de convertir los recursos en bienestar. En particular, los recursos materiales podrían utilizarse para ampliar enormemente nuestras capacidades mentales y prolongar indefinidamente nuestra esperanza de vida subjetiva. Y no está nada claro que la utilidad marginal de la prolongación de la esperanza de vida y del aumento de las capacidades mentales deba disminuir abruptamente por encima de un cierto nivel. Si no hay tal declive en la utilidad marginal, tenemos que concluir que la utilidad esperada para los individuos actualese de una colonización exitosa de nuestro supercúmulo es astronómicamente grande, y esta conclusión se mantiene incluso si se asigna una probabilidad bastante baja a ese resultado. Puede que sea una posibilidad remota, pero para un maximizador de la utilidad esperada, el beneficio de vivir durante quizás miles de millones de años subjetivos con capacidades muy ampliadas en condiciones extraordinariamente favorables podría compensar con creces las remotas perspectivas de éxito.
Ahora bien, si se hacen estos supuestos, ¿qué se deduce de cómo debe actuar un utilitarista centrado en las personas afectadas? Evidentemente, evitar las calamidades existenciales es importante, no solo porque reduciría la vida natural de unos seis mil millones de personas, sino también —y dados los supuestos esta es una consideración aún más importante— porque extinguiría la posibilidad que tienen las personas actuales de cosechar los enormes beneficios de una eventual colonización. Sin embargo, a diferencia del utilitarista total, el utilitarista centrado en las personas afectadas tendría que equilibrar este objetivo con otro desiderátum igualmente importante, a saber, el de maximizar las posibilidades de que las personas actuales sobrevivan para beneficiarse de la colonización. Para el utilitarista centrado en las personas afectadas, no basta con que la humanidad sobreviva para colonizar; es crucial que las personas existentes se salven. Esto debería llevarla a hacer hincapié en la velocidad del desarrollo tecnológico, ya que la rápida llegada de tecnología avanzada sería sin duda necesaria para ayudar a las personas actuales a mantenerse con vida hasta tanto se puedan recoger los frutos de la colonización. Si el objetivo de la velocidad entra en conflicto con el de la seguridad global, el utilitarista total debería optar siempre por maximizar la seguridad, pero el utilitarista centrado en las personas afectadas tendría que equilibrar el riesgo de que las personas mueran de viejas con el riesgo de que sucumban en una catástrofe que destruya la especie. Posturas éticas híbridas, que también incorporen elementos no utilitaristas, podrían o no producir uno de estos resultados, según de qué manera se complemente la teoría utilitarista.10