Riesgos de sufrimiento astronómico en el futuro
Si llevamos la llama verde de estrella en estrella, y encendemos una conflagración de vitalidad en torno a cada una, podemos desencadenar una metamorfosis Universal. […] Gracias a nosotros […] la escoria se convertirá en tierra, brotará la hierba, florecerán las plantas y surgirán bosques en lugares que antes fueron estériles.a […] Si negamos nuestro formidable desafío, damos la espalda al universo viviente y renunciamos a nuestro destino cósmico, cometeremos un crimen de magnitud incalculable. —
Marshall T. Savage 1
Recemos para que la raza humana nunca escape de la Tierra para esparcir su iniquidad en otro lugar. —
C. S. Lewis 2
El artículo de Nick Bostrom The future of human evolution describe un escenario en el que los valores humanos de la diversión, el ocio y las relaciones pueden ser sustituidos por agentes hiperoptimizados capaces de competir mejor en la carrera darwiniana por controlar nuestro futuro cono de luz. La única forma de evitar este escenario competitivo, sugiere Bostrom, sería a través de un “singleton”, un agente unificado o estructura de gobierno que pudiera tomar control del proceso evolutivo. Por supuesto, incluso un singleton podría no adoptar valores humanos. Muchos agentes de IA ingenuos que podrían construir los humanos optimizan una función objetivo que los humanos consideran carente de valor todo valor. O incluso si los humanos mantienen las manos en el volante, no está en absoluto garantizado que podamos preservar nuestros objetivos de forma estable luego de modificarnos reiteradamente. Caspar Oesterheld ha sugerido que incluso si una IA con estructura de singleton emerge en la Tierra, aún podría enfrentarse a la posibilidad de una competencia con extraterrestres, como resultado de lo cual podría sentirse presionada para construir rápidamente agentes sucesores más poderosos para los que no sería capaz de verificar la alineación completa de objetivos, lo que llevaría a la deriva de objetivos.
Estos factores sugieren que, incluso en caso de que el progreso tecnológico humano continúe, la probabilidad de que los valores humanos se materialicen en el futuro puede no ser muy grande. La implementación de los valores humanos parece requerir un singleton que no sea un optimizador ciego, que pueda preservar los valores de forma estable y que esté formado por diseñadores que se preocupen por los valores humanos en lugar del beneficio egoísta o alguna otra cosa. Es importante tener esto en cuenta cuando imaginamos lo que los humanos del futuro podrían ser capaces de conseguir con la tecnología disponible.
Algunos creen que las superinteligencias suficientemente avanzadas descubrirán la verdad moral y, por tanto, harán necesariamente lo correcto. Se sostiene, en efecto, que mientras la humanidad sobreviva y se haga más inteligente, con el tiempo se tomarán las decisiones correctas. Este punto de vista plantea dos problemas. En primer lugar, la navaja de Ockham se opone a la existencia de una verdad moral (sea lo que fuere que semejante cosa signifique). En segundo lugar, aunque tal verdad moral existiera, ¿por qué habría de importarle a una superinteligencia? Hoy en día hay muchas personas brillantes en la Tierra que comen carne. Conocen perfectamente el sufrimiento que causa, pero sus sistemas motivacionales no están suficientemente afectados por el daño que están causando a los animales de granja. Lo mismo puede ocurrir con las superinteligencias. De hecho, una inteligencia arbitraria en el espacio de las mentes posibles no necesita tener ni el más mínimo atisbo de empatía por el sufrimiento que experimentan los seres sintientes.
Incluso si los humanos mantuvieran el control sobre el futuro de la vida terrestre, permitiendo potencialmente a las personas materializar los futuros positivos que desean, todavía hay muchas formas en las que la colonización del espacio probablemente multiplicaría el sufrimiento. Estas son algunas de ellas.
Los humanos podrían colonizar otros planetas, propagando mediante la terraformación vida animal plagada de sufrimiento. Algunos humanos podrían utilizar sus recursos para sembrar vida por toda la galaxia, lo que ciertas personas, por desgracia, consideran un imperativo moral.
Dado un poder de cómputo astronómico, los posthumanos podrían ejecutar simulaciones de diverso tipo. Estas simulaciones podrían incluir muchas copias de vida animal salvaje, la mayor parte de la cual muere dolorosamente poco después de nacer. Por ejemplo, una superinteligencia cuyo objetivo sea explorar la distribución de extraterrestres de diferentes clases podría correr un gran número de simulaciones de evolución en varios tipos de planetas. Además, los científicos podrían ejecutar un número aún mayor de simulaciones de organismos que podrían haber existido, con el fin de explorar el espacio de las mentes. Podrían simular quintillones de agentes de aprendizaje por refuerzo lo suficientemente conscientes de sí mismos como para poder experimentar lo que consideramos dolor consciente (y también placer).
Además de simular mentes evolucionadas más primitivas, una civilización superinteligente podría simular infinidad de posibles trayectorias futuras para sí misma. En una situación de conflicto, las inteligencias artificiales podrían utilizar (una forma muy mejorada del) árbol de búsqueda Monte Carlo (MCTS) para simular los resultados de muchas interacciones hipotéticas durante una guerra. Los detalles de estas batallas tendrían que simularse por razones de verosimilitud, pero las simulaciones detalladas de la guerra tendrían mucha más importancia moral que, por ejemplo, las acciones primitivas en Total War: Rome II que se simulan durante la ejecución del algoritmo MCTS de una IA de videojuego. Por supuesto, es bastante probable que en el futuro se utilice algo mejor que el MCTS, pero la importancia de las simulaciones de algún tipo para la planificación no parece que vaya a desaparecer nunca.
Podría ser que ciertos algoritmos (digamos, agentes de aprendizaje por refuerzo) sean muy útiles para realizar complejos cálculos de aprendizaje automático que necesitan ser ejecutados a escala masiva por una IA avanzada. Estas subrutinas podrían ser lo suficientemente parecidas a los programas de dolor de nuestros propios cerebros como para que consideremos que realmente sufren. Pero el lucro y el poder podrían tener prioridad sobre la compasión, por lo que las subrutinas podrían utilizarse ampliamente en los cerebros Matrioshka de la IA.
El abanico de escenarios que podemos imaginar es limitado, y podrían surgir muchas más posibilidades en las que no hemos pensado o que tal vez ni siquiera somos capaces de comprender.
Si tuviera que hacer una estimación ahora, asignaría aproximadamente un 70 % de probabilidad a que si los humanos o posthumanos colonizan el espacio, esto causaría más sufrimiento del que reduciría (ignorando consideraciones de compromiso discutidas más adelante). Con esta afirmación me refiero solamente al sufrimiento total, ignorando la felicidad y otros valores positivos.b
Pensemos en cómo la colonización del espacio podría reducir el sufrimiento. Para la mayoría de esos mecanismos, parece haber contramecanismos que aumentarán el sufrimiento al menos en igual medida. Las siguientes secciones son paralelas a las anteriores.
David Pearce acuñó la frase “misiones cósmicas de rescate” al referirse a la posibilidad de enviar sondas a otros planetas para aliviar el sufrimiento extraterrestre salvaje que contienen. Es una buena idea, pero hay algunos problemas.
Contrastemos esto con las posibilidades de propagar el sufrimiento de los animales salvajes:
Afortunadamente, los humanos no son muy partidarios de propagar la vida, aunque algunos sí. En cuanto a la terraformación, hay presiones de supervivencia para hacerlo a corto plazo, pero probablemente la panspermia dirigida sea un problema mayor a largo plazo. Además, dado que se estima que la terraformación requiere al menos miles de años, mientras que la inteligencia digital de nivel humano debería tardar como mucho unos cientos de años en desarrollarse, la terraformación podría ser una cuestión irrelevante desde el punto de vista de los riesgos catastróficos, ya que la inteligencia digital no necesita planetas terraformados.
Aunque he señalado que no está garantizado que los extraterrestres sean sintientes, creo que es moderadamente probable que la consciencia sea bastante convergente entre las civilizaciones inteligentes. Esto se basa en (a) sugerencias de que la consciente ha evolucionado de forma convergente entre los animales de la Tierra y (b) el principio general de que la consciencia parece ser útil para planificar, manipular imágenes, automodelarse, etc. Sin embargo, tal vez esto refleje las limitaciones de mi imaginación humana para concebir formas de ser inteligente carentes de consciencia.
Incluso en el improbable caso de que la inteligencia originada en la Tierra se comprometiera a reducir el sufrimiento salvaje extraterrestre en el universo, e incluso en el improbable caso de que cada planeta de nuestro futuro cono de luz contuviera sufrimiento salvaje extraterrestre consciente, mi expectativa es que la colonización del espacio aumentaría el sufrimiento total en lugar de disminuirlo. Esto se debe a que la vida biológica confinada a un planeta captura una pequeña fracción de la energía irradiada por las estrellas madre. Aprovechar una mayor parte de esa energía solar permitiría ejecutar un número de cómputos inteligentes que superaría en muchos órdenes de magnitud lo que la biología puede lograr actualmente. A menos que la densidad de sufrimiento entre tales cómputos fuera extremadamente baja, multiplicar el poder de cómputo inteligente probablemente multiplicaría el sufrimiento.
Dadas las extraordinarias cantidades de energía que pueden extraerse de las estrellas, es posible que en el futuro la inteligencia originada en la Tierra corra un número prodigioso de simulaciones.
Por supuesto, tal vez haya extraterrestres que corran simulaciones de la naturaleza con fines científicos o de entretenimiento, o de las mentes en general para estudiar la biología, la psicología y la sociología. Si nos encontráramos con estos extraterrestres, quizá podríamos convencerlos de que fueran más compasivos.
Creo que es probable que los humanos seamos más empáticos que la civilización media porque
Basándonos en estas consideraciones, parece plausible que habría margen para mejorar en virtud de la interacción con los extraterrestres pueda mejorar. De hecho, en general deberíamos esperar que dos civilizaciones o facciones cualesquiera pudieran obtener ganancias del comercio si tienen una utilidad marginal decreciente con respecto a la cantidad de control que ejercen. Además, puede haber mejoras de Pareto de bajo costo derivadas simplemente de poseer una mayor inteligencia y una mejor comprensión de las consideraciones importantes.
Dicho esto, existen algunos riesgos. Los propios posthumanos podrían crear simulaciones de sufrimiento y, lo que es peor, sería más probable que las simulaciones realizadas por posthumanos fueran más sintientes que las realizadas por un extraterrestre tomado al azar, porque los posthumanos tenderían a simular cosas más cercanas a ellos mismos en el espacio de las mentes. Podrían ejecutar simulaciones de la naturaleza para la apreciación estética, simulaciones de laboratorio para experimentos científicos, o simulaciones de mascotas para tener de mascotas.
Las subrutinas de sufrimiento pueden ser un resultado convergente de cualquier IA, sea o no de inspiración humana. También podrían ser ejecutadas por alienígenas, y tal vez los humanos podrían pedirles que las diseñaran de formas más humanitarias, pero esto parece especulativo.
Parece plausible que el sufrimiento en el futuro esté dominado por algo totalmente inesperado. Podría tratarse de un nuevo descubrimiento en física, neurociencia o incluso filosofía en general. Algunos argumentan que, como ahora sabemos tan poco, es mejor que los seres humanos sigan existiendo por el “valor de opción” asociado: si más tarde nuestros descendientes se dan cuenta de que es malo propagarse, puede dejar de hacerlo, mientras que si se dan cuenta de que deben hacerlo, pueden proceder a reducir el sufrimiento de alguna forma novedosa que no hayamos previsto.
Por supuesto, el problema con el argumento del “valor de opción” es que asume que los humanos del futuro hacen lo correcto, cuando de hecho, basándonos en ejemplos especulativos que podemos imaginar ahora, parece que los humanos del futuro probablemente harían lo incorrecto en muchas ocasiones. Por ejemplo, si descubrieran una cantidad obscena de poder de cómputo en algún lugar, la mayoría de los humanos lo utilizarían para hacer funcionar una gran cantidad de mentes, una fracción no trivial de las cuales podría sufrir terriblemente. En general, la mayoría de las fuentes de inmenso poder son espadas de doble filo que pueden crear más felicidad y más sufrimiento, y el típico impulso humano de promover la vida y la consciencia en lugar de eliminarlas sugiere que los valores centrados en el sufrimiento llevan las de perder.
Aun así, parece razonable que esperar y aprender más sea eficiente según el criterio Kaldor-Hicks, y quizá haya formas de lograr que sea eficiente según el criterio de Pareto, otorgando concesiones adicionales a los que reducen el sufrimiento a modo de compensación.
Más arriba he supuesto en gran medida una civilización de orientación humana con valores que reconocemos. Pero ¿qué pasa si, como parece moderadamente probable, la Tierra fuera conquistada por un maximizador de clips, es decir, un proceso de automatización u optimización desenfrenado? ¿No habría una disminución del sufrimiento, ya que el maximizador eliminaría a los extraterrestres salvajes a medida que se extendiera por la galaxia, sin causar ningún sufrimiento adicional?
Tal vez, pero si el maximizador de clips fuera realmente una inteligencia general, entonces no se limitaría a poblar el sistema solar con clips. Querrá hacer ciencia, realizar experimentos de laboratorio con criaturas sintientes, quizá correr subrutinas de sufrimiento, etc. Necesitará muchos robots inteligentes y potencialmente sintientes para coordinar y mantener sus fábricas de clips, cosechadoras de energía y operaciones mineras, así como científicos e ingenieros para diseñarlas. Y el escenario de los clips entrañaría cisnes negros similares a los de una IA inspirada en el ser humano. Es de suponer que tales maximizadores serían menos intrínsecamente humanitarios que una “IA amigable”, de modo que algunos podrían causar mucho más sufrimiento que una IA amigable, aunque otros podrían causar menos, especialmente los “minimizadores” de clips, por ejemplo, los minimizadores de cáncer o los minimizadores de la muerte.
Si el maximizador de clips no es una inteligencia general, no veo cómo podría causar la extinción humana. En tal caso, sería como muchos otros riesgos catastróficos: mortal y desestabilizador, pero incapaz de acabar con la especie humana.
Si supiéramos con certeza que los extraterrestres colonizarían nuestra región del universo si no lo hiciera la inteligencia originada en la Tierra, la cuestión de si los humanos deberían intentar colonizar el espacio sería menos obvia. Como ya se ha señalado, es probable que los humanos sean más compasivos que cualquier otra civilización extraterrestre tomada al azar. Sin embargo, los cómputos inspirados en los humanos también podrían implicar cantidades mayores de lo que consideramos sufrimiento, porque las arquitecturas mentales de los agentes involucrados serían más familiares. Y tener más agentes compitiendo por nuestro futuro cono de luz podría conducir a situaciones peligrosas.
Pero en aras del argumento, supongamos que una ola de colonización originada en la Tierra sería mejor que la ola de colonización esperable de una civilización extraterrestre que colonizaría más tarde si nosotros no lo hiciéramos. En particular, supongamos que si los valores humanos colonizaran el espacio, causarían solo -0,5 unidades de sufrimiento, en comparación con -1 unidad si una civilización extraterrestre cualquiera colonizara el espacio. Entonces parecería que, mientras la probabilidad P de que algún otro extraterrestre venga más tarde sea mayor que 0,5, es mejor que los humanos colonicen y eviten que los extraterrestres lo hagan, ya que -0,5 > -1 * P cuando P > 0,5.
Sin embargo, este análisis olvida que incluso si la inteligencia originada en la Tierra coloniza el espacio, no está en absoluto garantizado que los valores humanos controlen cómo se lleva a cabo esa colonización. Las fuerzas evolutivas podrían distorsionar los valores humanos compasivos hasta convertirlos en algo irreconocible. Otra posibilidad es que una IA sin escrúpulos sustituya a los humanos y optimice valores arbitrarios en todo el cosmos. En estos casos, la compasión de los humanos, superior a la media, no cambia mucho las cosas, así que supongamos que el valor de estas olas de colonización sería -1, igual que para la colonización por parte de una civilización extraterrestre cualquiera. Sea Q la probabilidad de que estas fuerzas no compasivas ganen el control de la colonización de la Tierra. Ahora los valores esperados son
frente a
Concretamente, digamos que Q = 0,5. (Me parece probable que eso sea demasiado bajo, teniendo en cuenta cuántas veces la Tierra ha presenciado cambios de hegemonía en el pasado.) Entonces la colonización originada en la Tierra es mejor si, y solamente si,
Dada la incertidumbre sobre la paradoja de Fermi y el Gran filtro, parece difícil defender una probabilidad superior al 75 % de que nuestro futuro cono de luz contenga extraterrestres colonizadores si nosotros mismos no colonizamos, aunque esta sección ofrece un argumento interesante para pensar que la probabilidad de futuros extraterrestres es bastante alta.
¿Y si las IA sin escrúpulos producen una magnitud de disvalor diferente a la de los extraterrestres? Sea H el daño esperado de la colonización por parte de una IA sin escrúpulos. Supongamos que los extraterrestres tienen las mismas probabilidades de desarrollar IA sin escrúpulos que los humanos. Entonces el disvalor de la colonización terrestre es
y el daño de la colonización extraterrestre es
Tomando de nuevo Q = 0,5, la colonización originada en la Tierra tiene un mayor valor esperado si
donde la desigualdad se invierte cuando dividimos por el número negativo (H - 1). Aquí hay un gráfico de estos valores umbrales para P en función de H. Incluso si H = 0 y una IA sin escrúpulos no causara sufrimiento, solo sería mejor para la inteligencia originada en la Tierra colonizar si P > 0,5, es decir, si la probabilidad de que los extraterrestres colonizaran en su lugar fuera al menos del 50 %.
Estos cálculos presuponen muchas cosas, y podría resultar que la colonización terrestre tuviera un mayor valor esperado dados ciertos valores de los parámetros. Esta es una de las principales razones por las que sigo sin estar seguro del signo de la colonización del espacio basada en la Tierra. Sin embargo, toda esta sección se basó en la premisa de que la colonización inspirada en humanos es mejor que la colonización inspirada en extraterrestres, y lo contrario también podría ser cierto, ya que es más probable que los cómputos del futuro estén más cerca de lo que valoramos más y menos si los humanos son quienes colonizan.
Algunos han sugerido la posibilidad de dar a la IA originada en la Tierra los valores de las civilizaciones extraterrestres. Si esto se hiciera, entonces el argumento de que los humanos tienen mejores valores que los extraterrestres ni siquiera se aplicaría, y una ola de colonización basada en la Tierra sería tan mala como la colonización extraterrestre.
Finalmente, vale la pena señalar que en la medida en que las decisiones humanas estén lógicamente correlacionadas con las de los extraterrestres, si los humanos eligen no colonizar el espacio o fracasan en ello, eso puede hacer ligeramente más probable que otras civilizaciones tampoco lo hagan, lo que sería bueno. Sin embargo, esta consideración es probablemente bastante débil, dado el supuesto de que haya una baja correlación lógica entre las diferentes civilizaciones planetarias.
Si el desarrollo tecnológico y la colonización del espacio parecen estar a punto de causar cantidades astronómicas de sufrimiento, ¿no deberíamos hacer todo lo posible por impedirlos? Bueno, vale la pena debatir hasta qué punto, como sociedad, queremos estos resultados, pero mi conjetura es que alguien los llevará adelante, y ello sería difícil de frenar sin medidas extremas. Con el tiempo, quienes sigan desarrollando las tecnologías acapararán la mayor parte del poder mundial. Estas personas, aunque solo sea por un efecto de selección, tendrán fuertes deseos de desarrollar la IA y colonizar el espacio.
La resistencia podría no ser completamente inútil. Hay una pequeña posibilidad de que los reductores de sufrimiento influyan en la sociedad de tal manera que impidan la colonización del espacio. Pero sería mejor que este grupo, en lugar de luchar contra los partidarios del desarrollo tecnológico, llegara a un acuerdo con ellos: “Permitiremos que se expandan por el cosmos si le dan más importancia a nuestras preocupaciones por el sufrimiento futuro”. En lugar de ofrecer una probabilidad muy pequeña de una victoria absoluta a los reductores de sufrimiento, este enfoque de cooperación ofrece una mayor probabilidad de obtener una fracción considerable de la reducción total del sufrimiento que deseamos. Además, el compromiso significa que los reductores de sufrimiento también pueden ganar en el escenario (quizá 30 % probable, en mi opinión) de que el desarrollo tecnológico evite más sufrimiento del que causa, incluso al margen de consideraciones de compromiso estratégico con otras agentes.
Lo ideal sería que estos compromisos adoptaran la forma de acuerdos de negociación sólidos. Esto es posible incluso a corto plazo, como por ejemplo si los reductores de sufrimiento y los defensores de la colonización espacial acuerdan cancelar la financiación de proyectos que promueven exclusivamente los intereses de una de las partes y apoyar en su lugar algún proyecto de común acuerdo.
La cuestión estratégica de dónde invertir los recursos para promover los valores propios en un momento dado equivale a un dilema del prisionero con otros sistemas de valores, y como elegimos repetidamente dónde invertir, qué posturas adoptar y qué políticas impulsar, se trata de dilemas del prisionero iterados. En los torneos de Robert Axelrod sobre el dilema del prisionero iterado, las estrategias con mejores resultados eran siempre las “buenas”, es decir, no las primeras en abandonar la cooperación. Por eso, los reductores de sufrimiento no deberían ser los primeros en interrumpir la cooperación con los colonizadores del espacio. Por supuesto, si parece que los colonizadores del espacio no muestran ningún interés por la reducción del sufrimiento, deberíamos ser temporalmente “provocables”: deberíamos dejar de cumplir temporalmente nuestros acuerdos con ellos, hasta que la otra parte empiece a reconocer nuestras preocupaciones.
Quienes nos preocupamos por la colonización del espacio tenemos mucho que ganar si nos aliamos con sus partidarios, en lo que se refiere a la reflexión sobre qué escenarios podrían darse y cómo moldear el futuro en mejores direcciones. También queremos seguir siendo sus amigos porque eso significa que los partidarios de la colonización se tomarán más en serio nuestras ideas. Incluso si la colonización del espacio se produce, seguirá habiendo muchas cuestiones secundarias sobre las que los reductores de sufrimiento querrán tener voz: por ejemplo, no propagar la vida salvaje, no crear simulaciones o subrutinas de sufrimiento, etc.
Queremos asegurarnos de que los reductores de sufrimiento no se convertirán en un grupo despreciado. Por ejemplo, pensemos que las atrocidades de los nazis han convertido a la eugenesia en un tabú mayor de lo que habría sido en otras circunstancias. Quienes se oponen a la tecnología a veces son desprestigiados por asociación con el Unabomber. La reputación de los defensores de los animales pueden verse empañada por las tácticas violentas de unos pocos, o incluso por las payasadas de PETA. Debemos ser precavidos para que no ocurra algo similar con la reducción del sufrimiento. La mayoría de la gente ya se preocupa bastante por prevenir el sufrimiento, y no queremos que se empiece a decir: “¿Te preocupas por prevenir el daño a criaturas indefensas? ¿Eres uno de esos reductores de sufrimiento?” donde “reductores de sufrimiento” se haya vuelto una designación tan negativa que evoque un odio instantáneo.
Así que la cooperación con los partidarios de la colonización no solo es la opción más prometedora, sino que podría decirse que es la única opción netamente positiva para nosotros. Si adoptamos una postura más agresiva, corremos el riesgo de endurecer a la oposición y alejar a la gente de nuestro mensaje. Recordemos que evitar el sufrimiento futuro es algo que preocupa a todo el mundo, y no deberíamos erosionar ese hecho siendo excesivamente antagonistas.
Muchos escenarios especulativos que permitirían reducir enormemente el sufrimiento en el multiverso también permitirían aumentarlo enormemente: cuando se puede reducir el número de organismos que existen, también se puede aumentar su número, y los partidarios de crear más felicidad, vida, complejidad, etc. tenderán a inclinarse por la opción de aumentarlo.
Sin embargo, puede haber algunos cisnes negros que realmente favorezcan a un solo lado, en el sentido de que es sumamente probable que un mayor conocimiento se traduzca en una disminución del sufrimiento. Por ejemplo, podríamos descubrir que ciertas operaciones físicas rutinarias se corresponden con nuestras concepciones del sufrimiento. La gente podría desarrollar formas de rediseñar esos procesos físicos para reducir el sufrimiento que contienen. Si esto pudiera lograrse sin un gran sacrificio de la felicidad u otros valores, la mayoría de la gente apoyaría la idea, asumiendo que los valores actuales tienen cierta representación en las decisiones futuras.
Esto puede ser bastante importante. Doy una probabilidad no trivial (¿tal vez un 10 %?) de que, tras una reflexión suficiente, yo adoptaría una concepción muy inclusiva de lo que cuenta como sufrimiento, de suerte que sentiría que partes significativas de todo el multiverso contienen procesos físicos densos en sufrimiento. Después de todo, la mecánica del sufrimiento puede verse como algo realmente simple cuando se piensa en ello de una determinada manera, y lo mejor que puedo decir es que lo que hace que el sufrimiento animal sea especial son los accesorios que la sintiencia animal implica más allá de la física elemental: cosas como el aprendizaje complejo, el pensamiento, la memoria, etc. Pero, ¿por qué no pueden ser otros objetos físicos del multiverso los accesorios que acompañan al sufrimiento de otros procesos físicos? Todo esto es muy especulativo, pero por el momento solo podemos empezar a imaginar las concepciones del universo que tendrán nuestros descendientes.
Si nos preocupamos hasta cierto punto por la reflexión moral sobre nuestros propios valores, en lugar de asumir que la reducción del sufrimiento de un determinado tipo es definitivamente el mejor camino a seguir, entonces tenemos más razones para apoyar un futuro tecnológicamente avanzado, al menos si es reflexivo.
En un escenario idealizado como, digamos, el de la volición extrapolada coherente (VEC), si la reducción del sufrimiento fuera la perspectiva moral más convincente, otros apreciarían este hecho.c Es más, todos los argumentos que cualquier filósofo moral ha esgrimido se pondrían sobre la mesa para su consideración (además de muchos otros que ningún filósofo ha esgrimido todavía), y la gente tendría la oportunidad incluso de experimentar el sufrimiento extremo, de forma controlada, para evaluar lo malo que es en comparación con otras cosas. Tal vez habría enfoques analíticos para predecir lo que la gente diría sobre lo mala que es la tortura sin necesidad de torturarla realmente para averiguarlo. Y, por supuesto, podríamos leer los registros históricos de la humanidad y todos los escritos de Internet para saber más sobre lo que la gente ha dicho sobre la tortura, aunque tendríamos que corregir el sesgo que nos inclina a querer vivir y los déficits de veracidad al recordar emociones en retrospectiva. Pero, lo que es más importante, en un escenario de VEC, todas esas salvedades pueden ser tenidas en cuenta por personas mucho más inteligentes que nosotros.
Por supuesto, este panorama color de rosa no es un desenlace futuro probable. Históricamente, las fuerzas toman el control porque ejercen mejor su poder. Es bastante verosímil que alguien tome el control del futuro ignorando los deseos de todos los demás, en lugar de combinarlos e idealizarlos. O tal vez la preocupación por los indefensos se pierda en el camino, porque no es realmente adaptativo que los agentes poderosos se preocupen por los débiles, a menos que haya presiones sociales fuertes y estables para hacerlo. Esto sugiere que mejorar las perspectivas de un futuro reflexivo y tolerante puede ser una tarea importante. En lugar de centrarse en la cuestión de si el futuro ocurre o no, creo que para los reductores de sufrimiento es más valioso centrarse en mejorar el futuro si ocurre, fomentando el compromiso, la reflexión moral, la sabiduría filosófica y el altruismo.
Una pregunta de Rob Wiblin inspiró este artículo. El debate sobre la cooperación con otros sistemas de valores fue impulsado por Carl Shulman. Al principio me resistí a su afirmación, pero —como suele ocurrir, al menos en cuestiones fácticas y estratégicas— al final me di cuenta de que tenía razón y adopté su punto de vista.