Gran filtro
El Gran filtro es el mecanismo que explica por qué la materia no sintiente del universo rara vez evoluciona en inteligencia tecnológicamente avanzada.
El proceso hipotético que va de la materia primitiva a la madurez tecnológica puede considerarse como una serie de transiciones críticas. El hecho de que no observemos inteligencia extraterrestre —lo que a veces se denomina “Gran silencio”— implica la existencia de un Gran filtro en algún punto de la serie. Los teóricos del Gran filtro, como Robin Hanson, señalan que la ubicación del Gran filtro a lo largo de esa serie tiene implicaciones para las perspectivas humanas de supervivencia a largo plazo. En particular, si el Gran filtro se encuentra todavía en el futuro, es casi seguro que nuestra especie no logrará colonizar gran parte del universo. En palabras de Hanson: “Cuanto más fácil le haya resultado a la vida evolucionar hasta nuestro estadio, más sombrías serán nuestras posibilidades futuras”.1
Entre los candidatos a Gran filtro que se han sugerido se encuentran los siguientes:2
Nótese que esta lista de filtros puede no ser exhaustiva. Tampoco se trata de candidatos mutuamente excluyentes: puede haber más de un Gran filtro.
Los descubrimientos relacionados con la ubicación del Gran filtro tienen varias implicaciones distintas para la priorización de causas, sobre todo en relación con la reducción del riesgo existencial.
Concluir que el Gran filtro está en el futuro puede sugerir que deben incrementarse los esfuerzos para reducir el riesgo existencial. Como escribe Hanson: “Cuanto mayor sea el filtro que tenemos por delante, más cuidadosamente debería tratar la humanidad de evitar escenarios negativos”.3 Alternativamente, reducir los riesgos existenciales que genera el Gran filtro puede considerarse una tarea insoluble, dado que, por hipótesis, ninguna otra civilización ha conseguido superarlo. En las palabras de Nick Bostrom: “Si el Gran filtro está delante de nosotros, deberíamos renunciar a toda esperanza de colonizar algún día la galaxia; y deberíamos temer que nuestra aventura termine pronto o, en todo caso, que termine prematuramente”.4 Lo verdaderamente sorprendente sería asignar una probabilidad alta a un Gran filtro futuro —y, por consiguiente, a una catástrofe existencial— pero no concluir que deben asignarse o más o menos recursos marginales a resguardar el potencial a largo plazo de nuestra especie.
Supongamos que asignamos cierto grado de creencia a la hipótesis de que el Gran filtro está por delante de nosotros. Además de tener un impacto en cuánto priorizamos reducir el riesgo existencial, tal asignación también puede impactar cuánto priorizamos reducir algunos riesgos existenciales sobre otros. Esto se debe a que no todas las causas potenciales de una catástrofe existencial son candidatos igualmente buenos a Gran filtro.
En primer lugar, el futuro Gran filtro propuesto debe ser lo suficientemente poderoso como para causar la desaparición no solo a los humanos actuales, sino también de todas las demás civilizaciones que alcancen la fase de desarrollo pertinente. Como escribe Bostrom, “los desastres naturales aleatorios, como los impactos de asteroides y las erupciones supervolcánicas, son malos candidatos a Gran Filtro, porque aunque destruyeran un número significativo de civilizaciones, cabría esperar que algunas tuvieran suerte; y algunas de estas civilizaciones podrían llegar a colonizar el universo. Quizá los riesgos existenciales que tienen más probabilidades de constituir un Gran filtro son aquellos que surgen de los descubrimientos tecnológicos”.5 a
En segundo lugar, el futuro Gran filtro propuesto debe ser compatible con la evidencia observacional. Es improbable que un evento catastrófico que deje huellas de sí mismo visibles desde el espacio sea un futuro Gran filtro, ya que no parece que estemos observando ninguna huella de este tipo. De este modo, no parece probable que una explosión de inteligencia sea el Gran filtro, porque el universo (excluida la Tierra) parece estar desprovisto no solo de vida inteligente, sino también de signos de una explosión previa que pudiera haber causado su desaparición.b
En tercer lugar, el futuro Gran filtro propuesto tiene que ser compatible con la existencia de observadores humanos. El Gran filtro debe ser lo suficientemente poderoso como para impedir que especies inteligentes como nosotros se conviertan en una civilización espacial. Pero no puede ser tan poderoso como para impedir nuestra propia existencia, puesto que aquí estamos. Como señala Katja Grace, “cualquier catástrofe que destruyera a todos los habitantes del universo observable a la vez, o que destruyera el propio espacio, queda descartada”.6
Hay una segunda razón por la que el Gran filtro debería hacer que nos preocuparan especialmente ciertas catástrofes existenciales. Según Hanson, si el Gran filtro está en el futuro, “nuestras perspectivas son sombrías, pero conocer este hecho puede al menos ayudarnos a mejorar nuestras posibilidades”.7 Sin embargo, la mera conciencia de que el Gran filtro está por delante no puede aumentar sustancialmente nuestras posibilidades de sobrevivir a él, ya que una fracción considerable de civilizaciones como la nuestra probablemente también desarrollaron esta conciencia y, sin embargo, no lograron sobrevivir. En general, cuanto más común se espera que sea una estrategia de reducción del riesgo entre las diversas civilizaciones, más pesimista hay que ser sobre sus posibilidades de éxito. Por eso debería darse prioridad a las estrategias que se espera que sean muy poco comunes. Como escribe Carl Shulman, “el mero hecho de que adoptemos cualquier supuesta estrategia E que evite el Filtro es una prueba contundente de que E no funcionará… Para esperar que E funcione, tendríamos que estar muy seguros de que somos verdaderamente excepcionales al adoptar E (o cualquier estrategia tan buena como E), además de pensar que E es muy buena por sus propios méritos. Esta condición podría cumplirse si E solo fuera posible por alguna extraña casualidad, y una estrategia podría mejorar nuestras posibilidades aun cuando siguiéramos estando casi seguros de fracasar, pero las características comunes, como la conciencia del Gran filtro, no bastarían para evitar futuros filtros”.8
Una última implicación del Gran filtro con respecto a la priorización de causas se refiere a la priorización de distintos tipos de investigación. En particular, esta consideración parece favorecer la priorización de la investigación con potencial para localizar mejor el Gran filtro, dado el alto valor de la información generada por estas investigaciones. Dos tipos obvios de investigación son (1) la investigación que nos ayuda a definir el espacio de los candidatos a Gran filtro y (2) la investigación que nos ayuda a estimar la probabilidad de que cualquiera de esos candidatos sea de hecho el Gran filtro. En términos más generales, esta consideración aumenta el valor de disciplinas como la astrobiología y de proyectos como SETI (búsqueda de inteligencia extraterrestre).9
Nick Bostrom (2008) Where are they?, MIT Technology Review, 22 de abril.
Robin Hanson (1998) The Great Filter—are we almost past it?, Robin Hanson’s Website, 15 de septiembre.
colonización del espacio • extinción humana • extraterrestres acaparadores • inteligencia extraterrestre • paradoja de Fermi • riesgo existencial