Prevenir las pandemias catastróficas
Las pandemias se cuentan entre los sucesos más mortíferos de la historia. La pandemia de COVID-19 demostró que seguimos siendo vulnerables a ellas y que los futuros brotes podrían ser mucho más letales.
De hecho, los avances tecnológicos nos enfrentan a la posibilidad de catástrofes biológicas de una magnitud sin precedentes.
La probabilidad de que se produzcan pandemias catastróficas de este tipo —lo suficientemente graves como para poner en jaque a la civilización y amenazar el futuro de la humanidad— parece alta a un nivel alarmante. Creemos que este riesgo es uno de los problemas más graves del mundo.
Y existen varias opciones prácticas para reducir los riesgos biológicos catastróficos globales (RBCG). Por eso, creemos que trabajar para reducir los RBCG es una de las formas más prometedoras de salvaguardar el futuro de la humanidad en la actualidad.
Las pandemias —especialmente las pandemias artificiales— plantean un riesgo significativo para la existencia de la humanidad. Aunque el riesgo es difícil de evaluar, algunos investigadores estiman que existe una probabilidad superior a 1 entre 10 000 de que una catástrofe biológica conduzca a la extinción humana en los próximos 100 años, y potencialmente tan alta como de 1 entre 100 (véase más abajo). Y es aún más probable que se produzca una catástrofe biológica que cause la muerte de un gran porcentaje de la población, lo que podría contribuir al riesgo existencial.
Actualmente, la prevención de pandemias recibe un financiamiento moderado. Incluso tras el brote de COVID-19, el gasto en biodefensa en EE. UU., por ejemplo, solo ha crecido de forma modesta: de una estimación de 17 000 millones de dólares en 2019 a 24 000 millones en 2023.
Según una estimación de abril de 2024, el gasto mundial en mitigación y prevención de brotes de enfermedades rondaba los 130 000 millones de dólares. Sin embargo, se constató que las intervenciones y las agendas de investigación centradas específicamente en prevenir los desastres biológicos más catastróficos siguen estando desatendidas.
Existen enfoques prometedores para mejorar la bioseguridad y reducir el riesgo de pandemias, que incluyen la investigación, las intervenciones en materia de políticas y el desarrollo de tecnologías defensivas.
La pandemia de COVID-19 puso de manifiesto nuestra vulnerabilidad ante las pandemias mundiales y reveló los puntos débiles de nuestra capacidad de respuesta. A pesar de los avances en medicina y salud pública, se han registrado alrededor de siete millones de muertes en todo el mundo a causa de la enfermedad, y muchas estimaciones sitúan la cifra muy por encima.
Sucesos históricos como la peste negra y la gripe de 1918 demuestran que las pandemias pueden contarse entre los desastres más devastadores para la humanidad, al causar la muerte de decenas de millones de personas y de una parte significativa de la población mundial.
Resulta aleccionador imaginar el impacto potencial de un agente patógeno pandémico mucho más contagioso y mortal que cualquiera de los que hemos visto hasta ahora.
Por desgracia, un patógeno de este tipo es posible en principio, particularmente a la luz de los avances en biotecnología. Los investigadores pueden diseñar y crear agentes biológicos con mucha más facilidad y precisión que antes (más sobre esto más abajo). A medida que este campo avance, será cada vez más factible crear por ingeniería un patógeno que suponga una gran amenaza para toda la humanidad.
Los Estados o los actores malintencionados con acceso a estos patógenos podrían utilizarlos como armas ofensivas o esgrimirlos como amenazas para presionar a otros.
También podrían liberarse accidentalmente patógenos peligrosos creados por ingeniería con fines de investigación, debido a un fallo de seguridad en el laboratorio.
Cualquiera de estas situaciones podría dar lugar a una “pandemia artificial” catastrófica, que, en nuestra opinión, podría suponer una amenaza aún mayor para la humanidad que las pandemias que surgen de forma natural, como argumentamos más adelante.
Afortunadamente, pocas personas pretenden utilizar las enfermedades como arma, y puede ser que quienes estén dispuestos a llevar a cabo tales ataques no busquen producir el patógeno más dañino posible. Pero la combinación de posibilidades de accidente, imprudencia, desesperación y malicia inusual sugiere una probabilidad alarmantemente alta de que se libere un patógeno pandémico capaz de matar a un porcentaje muy elevado de la población. El mundo podría verse particularmente amenazado durante conflictos entre grandes potencias.
Pero, ¿podría una pandemia artificial suponer una amenaza de extinción para la humanidad?
Este es un punto debatible. En el pasado, las sociedades se han recuperado de pandemias que acabaron con hasta el 50 % de la población, y quizá más.a
Sin embargo, creemos que las pandemias futuras pueden ser uno de los principales factores que contribuyan al riesgo existencial de este siglo, porque ahora parece que los avances biológicos a corto plazo permitirán crear pandemias capaces de matar a más del 50 % de la población, no solo en un área concreta, sino a nivel mundial. Es posible que sean lo suficientemente graves como para provocar la extinción de la humanidad, o al menos causar daños tales que la civilización nunca se recupere.
Por tanto, parece extremadamente importante reducir el riesgo de catástrofes biológicas creando salvaguardias contra posibles brotes y preparándonos para mitigar sus peores efectos.
Parece relativamente infrecuente que las personas del ámbito más amplio de la bioseguridad y la preparación para pandemias trabajen específicamente en la reducción de los riesgos catastróficos y las pandemias artificiales. Los proyectos que reducen el riesgo de catástrofe biológica también parecen recibir una proporción relativamente pequeña del financiamiento para la seguridad sanitaria.b
En nuestra opinión, los costos de las catástrofes biológicas crecen de forma no lineal con la gravedad, debido al creciente potencial del suceso para contribuir al riesgo existencial. Esto sugiere que los proyectos para prevenir los desenlaces más graves, en particular, deberían recibir más financiamiento y atención de los que reciben actualmente.
En el resto de esta sección, hablaremos de cómo se comparan las pandemias artificiales con los riesgos de pandemias naturales. Más adelante, hablaremos de qué tipo de trabajo puede y debe hacerse en este ámbito para reducir los riesgos.
También tenemos un análisis de carreras profesionales en investigación, estrategia y políticas sobre riesgos biológicos que ofrece consejos más específicos y concretos sobre roles de impacto a los que se puede aspirar y sobre cómo entrar en este campo.
A continuación se presentan cuatro de las peores pandemias de la historia:c
Estas pandemias históricas muestran el potencial destructivo de las amenazas biológicas, y constituyen una amenaza que merece la pena mitigar por sí misma. También demuestran que las características clave de una catástrofe global, como una elevada mortalidad proporcional y el colapso de la civilización, pueden ser provocadas por pandemias altamente destructivas.
Pero a pesar del horror de estos sucesos pasados, parece poco probable que una pandemia natural pueda ser lo suficientemente grave como para provocar por sí sola la extinción total de la humanidad en un futuro previsible, dado lo que sabemos de los sucesos de la historia natural.f
Como argumenta el filósofo Toby Ord en la sección sobre riesgos naturales de su libro The Precipice, la historia sugiere que la humanidad se enfrenta a un riesgo de extinción inicial muy bajo —la probabilidad de desaparecer en circunstancias normales— por causas naturales en un periodo de, digamos, 100 años.
Esto se debe a que si el riesgo inicial fuera de alrededor del 10 % por siglo, tendríamos que concluir que hemos sido muy afortunados durante los aproximadamente 200 000 años de existencia de la humanidad. Nuestra existencia es mucho menos sorprendente si el riesgo ha sido de alrededor del 0,001 % por siglo.
Ninguna de las peores plagas que conocemos en la historia fue lo suficientemente grave como para desestabilizar la civilización a nivel mundial o poner claramente en jaque el futuro de nuestra especie. Y, en un sentido más amplio, los sucesos de extinción provocados por patógenos en la naturaleza parecen ser relativamente raros en el caso de los animales.g
¿Estamos ahora más a salvo de las pandemias que antes? ¿O los avances de la sociedad humana nos exponen en realidad a un mayor riesgo de pandemias naturales?
Es difícil encontrar datos fiables sobre estas cuestiones. La carga de las enfermedades infecciosas en la sociedad humana en general muestra una tendencia a la baja, pero esto no nos dice mucho sobre si los brotes poco frecuentes de pandemias a gran escala podrían estar empeorando.
A nivel teórico, podemos pensar en muchas razones por las que el riesgo de pandemias de origen natural podría estar reduciéndose. Entre ellas se incluyen las siguientes:
Por otra parte:
Es probable que haya muchas otras consideraciones relevantes. Nuestra conjetura es que la frecuencia de las pandemias naturales está aumentando, pero que, por término medio, serán menos severas.j Otra conjetura es que el segundo factor es más importante que el primero, lo que resulta en una reducción del peligro general. No obstante, sigue habiendo muchas preguntas sin respuesta.
Pero aunque los riesgos de pandemias naturales estén disminuyendo, es casi seguro que los riesgos de los patógenos artificiales estén aumentando.
Esto se debe a que el avance de la tecnología hace cada vez más factible crear virus y agentes infecciosos peligrosos.k El uso impropio, ya sea accidental o deliberado, de esta tecnología constituye un riesgo catastrófico global creíble y podría amenazar el futuro de la humanidad.
Una forma en que esto podría ocurrir es si algún actor con intenciones peligrosas quisiera resucitar brotes catastróficos del pasado.
La poliomielitis, la cepa de la gripe pandémica de 1918 y, más recientemente, la viruela equina (un pariente cercano de la viruela) se han recreado desde cero. La secuencia genética de todos estos patógenos y de otros tantos está a disposición del público, y el progreso y la proliferación de la biotecnología abren oportunidades aterradoras.l
Además de la resurrección de plagas del pasado, la biotecnología avanzada podría permitir la creación por ingeniería de un patógeno más peligroso que cualquiera de los que han existido en la historia natural.
Cuando los virus evolucionan, la selección natural no los hace tan mortíferos o destructivos como sea posible. Pero alguien que intente causar daño deliberadamente podría combinar a propósito las peores características de los virus existentes de una forma que es muy improbable que ocurra en la naturaleza.
Actualmente es posible secuenciar, editar y sintetizar genes, y estos procesos se están volviendo cada vez más eficientes y accesibles. Cada vez estamos más cerca de poder producir agentes biológicos de la misma forma en que diseñamos y fabricamos computadoras u otros productos (aunque no está claro cuánto tiempo llevará). Esto podría permitir el diseño y la creación de patógenos más mortales o transmisibles, o quizá con características totalmente nuevas (leer más).
Los científicos también investigan qué hace que los patógenos sean más o menos letales y contagiosos, lo que puede ayudarnos a prevenir y mitigar mejor los brotes.
Pero esto también significa que la información necesaria para diseñar patógenos más peligrosos está cada vez más disponible.
Todas las tecnologías implicadas tienen usos médicos potenciales, además de peligros. Por ejemplo, la ingeniería vírica se ha empleado en terapia génica y vacunas (incluidas algunas utilizadas para combatir la COVID-19).
Sin embargo, el conocimiento sobre cómo diseñar virus para que sean mejores como vacunas o terapias podría utilizarse impropiamente para desarrollar “mejores” armas biológicas. Gestionar adecuadamente estos avances implica un delicado equilibrio.
En la bibliografía científica se pueden ver indicios de estos peligros. Existen experimentos de ganancia de función con la influenza que sugieren que la selección artificial podría dar lugar a patógenos con propiedades que aumenten su peligrosidad.m
Y la comunidad científica aún no ha establecido normas lo suficientemente firmes como para desalentar e impedir que se compartan sin restricciones descubrimientos peligrosos, como los métodos para hacer un virus más letal. Por eso advertimos a quienes se dedican a este campo que la bioseguridad implica riesgos de la información. Es esencial que las personas que gestionan estos riesgos tengan buen juicio.
Los científicos pueden hacer descubrimientos peligrosos por accidente en su trabajo de laboratorio. Por ejemplo, la investigación sobre vacunas puede descubrir mutaciones víricas que hagan una enfermedad más infecciosa. Y otras áreas de la biología, como la investigación de enzimas, muestran cómo nuestro avance tecnológico puede desbloquear capacidades nuevas y potencialmente peligrosas que no han aparecido antes en la naturaleza.n
En un mundo lleno de cosas que ni siquiera sabemos que ignoramos, podríamos toparnos con peligros totalmente nuevos.
Así, aunque el avance de la ciencia trae consigo un gran progreso, también conlleva la posibilidad de que actores malintencionados produzcan deliberadamente patógenos nuevos o modificados. Aunque la gran mayoría de la experticia científica se centra en beneficiar a la humanidad, un grupo mucho más pequeño puede utilizar los avances de la comunidad para causar un gran daño.
Si una persona o un grupo tiene la motivación, los recursos y la capacidad técnica suficientes, es difícil establecer un límite a la magnitud que podría alcanzar una pandemia artificial. A medida que la tecnología avance, las herramientas para crear una catástrofe biológica serán cada vez más accesibles; las barreras para lograr resultados aterradores pueden ser cada vez más bajas, lo que aumentará el riesgo de un ataque a gran escala. El avance de la IA, en particular, puede acelerar este riesgo (más información sobre esto más abajo).
Podemos dividir los riesgos de las pandemias creadas artificialmente en uso impropio accidental y deliberado: a grandes rasgos, podemos pensar en la diferencia entre un experimento científico que sale mal y un ataque bioterrorista.
La historia de accidentes y fugas de laboratorio en los que se expuso a personas a patógenos peligrosos es escalofriante:
Y la historia ha sido testigo de muchos atentados terroristas y del desarrollo gubernamental de armas de destrucción masiva. Entre los incidentes de bioterrorismo y guerra biológica se incluyen los siguientes:
Entonces, ¿debemos preocuparnos más por los accidentes o por el bioterrorismo? No estamos seguros. No hay muchos datos en los que basarse, y los argumentos apuntan en ambas direcciones.
Puede parecer que liberar un patógeno mortal a propósito es más preocupante. Como ya se ha dicho, lo más probable es que las peores pandemias sean creadas intencionadamente y no que surjan por casualidad. Además, hay formas de hacer que la liberación de un patógeno sea más o menos dañina, y una liberación accidental probablemente no estaría optimizada para causar el máximo daño.
Por otra parte, muchas más personas tienen buenas intenciones y desean utilizar la biotecnología para ayudar al mundo, no para perjudicarlo. Además, los esfuerzos para eliminar los programas estatales de armas biológicas probablemente reduzcan el número de atacantes potenciales (pero véase más sobre los límites de estos esfuerzos más abajo). Por lo tanto, parece más probable un accidente desastroso que un ataque biológico a gran escala llevado a cabo por un actor malintencionado.
Suponemos que, en conjunto, las primeras consideraciones son los factores más significativos.q Por ello, sospechamos que el uso impropio deliberado es más peligroso que las fugas accidentales, aunque sin duda merece la pena protegerse de ambos.
Hemos visto diversas estimaciones sobre la probabilidad de que se produzca una catástrofe biológica existencial, incluida la posibilidad de pandemias artificiales.s Quizá las mejores estimaciones procedan del Torneo de Persuasión sobre el Riesgo Existencial (XPT).
Este proyecto reunió a grupos de expertos en la materia y pronosticadores experimentados para que estimaran la probabilidad de sucesos extremos. Para los riesgos biológicos, el rango de las estimaciones medianas entre pronosticadores y expertos en la materia fue el siguiente:
Aunque son las mejores cifras de las que disponemos, estos números deben tomarse con cautela. Las tres advertencias principales son:
Es difícil saber con certeza cómo sopesar estos distintos tipos de estimaciones y consideraciones, y creemos que personas razonables llegarán a conclusiones diferentes.
Nuestra opinión es que, dada la gravedad que tendría una pandemia catastrófica, el hecho de que parece haber pocos límites a lo destructiva que podría ser una pandemia artificial y lo ampliamente beneficiosas que son las medidas de mitigación, debería haber muchas más personas trabajando en este problema.
Dado que damos prioridad a los problemas globales que podrían tener un impacto significativo en las generaciones futuras, nos centramos en el trabajo que reducirá las mayores amenazas biológicas, especialmente las que podrían causar la extinción humana o el colapso de la civilización.
Pero la bioseguridad y la reducción de los riesgos catastróficos podrían tener un gran impacto para personas con distintas cosmovisiones, porque:
También existe un solapamiento considerable entre la bioseguridad y otros problemas mundiales, como la salud global (p. ej., la Agenda de Seguridad Sanitaria Global), la cría intensiva de animales (p. ej., las iniciativas “One Health”) y la IA.
Entre quienes estudian los riesgos existenciales, muchos creen que los riesgos biológicos y los riesgos asociados a la IA son las dos mayores amenazas existenciales. Nuestra conjetura es que las amenazas de pandemias catastróficas son algo menos graves que las derivadas de los sistemas avanzados de IA.
Pero es probable que no sean mucho menos graves.
Una característica de un problema que lo hace más grave es si existen soluciones tratables en las que se pueda trabajar. Muchas soluciones en el ámbito de la bioseguridad parecen especialmente tratables porque:
Creemos que también hay oportunidades interesantes para trabajar en la reducción de los riesgos de la IA, pero el campo está mucho menos desarrollado que las ciencias médicas.
La existencia de esta infraestructura en el campo de la bioseguridad puede hacer que el trabajo sea más tratable, pero también lo hace posiblemente menos desatendido, lo que lo convertiría en un problema menos grave. En parte porque el riesgo asociado a la IA se ha considerado por lo general más especulativo, representaría una amenaza esencialmente nueva y menos gente ha estado trabajando en el área. Esto ha hecho que el riesgo asociado a la IA esté más desatendido que el riesgo biológico.
En 2023, el interés por la seguridad y la gobernanza de la IA empezó a crecer con bastante rapidez, lo que hizo que estos campos estuvieran algo menos desatendidos que antes. Pero siguen siendo bastante nuevos y, por tanto, continúan estando relativamente desatendidos en comparación con el campo de la bioseguridad. Dado que consideramos que los problemas más desatendidos son más graves, este factor probablemente juega a favor de trabajar en el riesgo asociado a la IA.
También consideramos más graves los problemas de mayor escala. Podríamos medir la escala del problema simplemente en términos de la probabilidad de causar la extinción humana o un resultado de gravedad comparable. 80 000 Horas calcula que el riesgo de una catástrofe existencial provocada por la IA oscila entre un 3 % y un 50 % en este siglo (aunque no hay un consenso al respecto). Pocos investigadores que conozcamos, si es que hay alguno, creen que el riesgo biológico comparable sea tan alto.
Al mismo tiempo, el riesgo asociado a la IA es más especulativo que el de las pandemias, porque sabemos por experiencia directa que las pandemias pueden ser mortales a gran escala. Por ello, algunas personas que investigan estas cuestiones consideran que el riesgo biológico es una amenaza mucho más probable.
Pero en la mayoría de los casos, no deberías elegir en qué problema trabajar basándote únicamente en tu opinión sobre su gravedad (¡aunque esto importa mucho!). También debes tener en cuenta tu aptitud personal y tu ventaja comparativa.
Por último, una nota sobre cómo se relacionan estas cuestiones:
Si tu trabajo puede reducir los riesgos en ambos frentes, entonces podrías considerar que los problemas tienen una gravedad similar.
La bioseguridad y la preparación para las pandemias son campos multidisciplinarios. Para hacer frente a estas amenazas con eficacia, necesitamos varios enfoques, entre ellos:
En concreto, podrías:
El campo más amplio de la bioseguridad y la preparación para pandemias ha hecho contribuciones importantes a la reducción de los riesgos catastróficos. Muchas de las mejores formas de prepararse para brotes más probables pero menos graves también reducirán los peores riesgos.
Por ejemplo, si desarrollamos vacunas y tratamientos de amplio espectro para prevenir y tratar una gran variedad de posibles patógenos pandémicos, esto será muy beneficioso para la salud pública y la bioseguridad. Pero también es probable que disminuya el riesgo de los peores escenarios que hemos estado discutiendo: es más difícil lanzar un ataque bioterrorista catastrófico en un mundo que está preparado para protegerse contra las enfermedades candidatas más plausibles. Y si cualquier Estado u otro actor que pudiera considerar la fabricación de tal amenaza sabe que el mundo tiene una alta probabilidad de estar protegido contra ella, tiene aún menos motivos para intentarlo.
Se pueden esgrimir argumentos similares sobre la mejora de los equipos de protección personal, algunas formas de vigilancia de enfermedades y la purificación del aire en interiores.
Pero si tu objetivo es prevenir los peores escenarios, quizá quieras centrarte en intervenciones específicas dentro de la bioseguridad y la prevención de pandemias por encima de otras.
Algunos expertos en este campo, como el biólogo del MIT Kevin Esvelt, creen que las mejores intervenciones para reducir el riesgo de las pandemias de origen humano procederán del mundo de la física y la ingeniería, más que de la biología.
Esto se debe a que para cada contramedida biológica que busca reducir el riesgo de pandemia, como las vacunas, puede haber herramientas en las ciencias biológicas para superar esos obstáculos, del mismo modo que los virus pueden evolucionar para evadir la inmunidad inducida por las vacunas.
Y, sin embargo, puede haber límites infranqueables a la capacidad de las amenazas biológicas para superar las contramedidas físicas. Por ejemplo, parece plausible que simplemente no haya una forma viable de diseñar un virus que pueda penetrar un equipo de protección personal suficientemente seguro o sobrevivir bajo la luz ultravioleta de onda corta. Si este argumento es correcto, estas intervenciones u otras similares podrían proporcionar una de las protecciones más sólidas contra las mayores amenazas de pandemias.
A continuación, ilustramos dos ejemplos concretos de trabajo para reducir los riesgos biológicos catastróficos, aunque cabe señalar que existen muchas otras opciones (y que incluso pueden ser más tratables).
La principal defensa contra la proliferación de armas biológicas entre los Estados es la Convención sobre las Armas Biológicas. La gran mayoría de los Estados que pueden hacerlo la han firmado o ratificado.
Sin embargo, algunos Estados que firmaron o ratificaron la Convención también han desarrollado programas de armas biológicas de forma encubierta. El principal ejemplo fue el programa Biopreparat de la URSS,x que en su apogeo invirtió miles de millones de dólares y empleó a decenas de miles de personas en una red de instalaciones secretas.y
Se dice que sus actividades incluían la producción a escala industrial de agentes patógenos para ser utilizados como armas, como la peste, la viruela y el ántrax. Incluso habrían logrado modificar patógenos para que fueran más letales, más resistentes a los tratamientos y a las vacunas, y más capaces de eludir la detección en laboratorios y de desarrollar mecanismos mórbidos novedosos no observados en la naturaleza.z Existen amplias sospechas de otras violaciones pasadas y presentes en varios países.aa
La Convención sobre las Armas Biológicas se enfrenta a dificultades continuas:
Trabajar para mejorar la eficacia de la Convención, aumentar su financiamiento o promover nuevos esfuerzos internacionales que contribuyan a una mejor consecución de sus objetivos podría ayudar a reducir el riesgo de una catástrofe biológica de grandes proporciones.
Como ya se ha mencionado, algunas investigaciones bienintencionadas tienen el potencial de aumentar los riesgos catastróficos. Este tipo de investigación suele denominarse “investigación de doble uso preocupante”, ya que sus resultados podrían utilizarse tanto para fines beneficiosos como perjudiciales.
Las principales preocupaciones son que puedan liberarse accidentalmente patógenos peligrosos, o que especímenes e información peligrosos producidos por la investigación puedan caer en manos de actores malintencionados.
Los experimentos de ganancia de función de Yoshihiro Kawaoka y Ron Fouchier suscitaron preocupación en 2011. Publicaron resultados que demostraban que habían modificado la gripe aviar para que se propagara entre hurones, lo que hizo temer que también pudiera llegar a propagarse a los humanos.
La síntesis de la viruela equina es un caso más reciente. Una buena gobernanza de este tipo de investigación sigue siendo más una aspiración que una realidad.
Los investigadores a título individual suelen tener un alto nivel de discrecionalidad a la hora de llevar a cabo experimentos riesgosos. Es probable que las normas científicas habituales no sean las más adecuadas para gestionar correctamente los peligros intrínsecos de algunos de estos trabajos.
Incluso en el mejor de los casos, en el que la comunidad científica esté compuesta solo por quienes creen sinceramente que los trabajos que realizan son, en conjunto, buenos para el mundo, podríamos enfrentarnos a la maldición del unilateralista. Esta se produce cuando un solo individuo concluye erróneamente que debe tomarse una medida peligrosa, aun cuando todos sus colegas la hayan descartado. Esto hace que la probabilidad de una catástrofe sea mucho mayor, porque basta con que una persona haga una evaluación de riesgos incorrecta para imponer costos importantes al resto de la sociedad.
Y, en realidad, los científicos están sujetos a otros incentivos además del bien público, como las publicaciones, las patentes y el prestigio. Sería preferible que los descubrimientos que mejoran la seguridad se realizaran antes de que surjan descubrimientos peligrosos más fáciles de hacer. Pero los incentivos existentes pueden animar a los investigadores a llevar a cabo su trabajo de formas que no siempre son óptimas para el bien social.
La gobernanza y la supervisión pueden mitigar los riesgos que plantean los fallos o errores individuales. El historial de dichos organismos de supervisión en la identificación de problemas con antelación es imperfecto. El trabajo de ganancia de función en la gripe aviar fue financiado inicialmente por los Institutos Nacionales de Salud (el mismo organismo que posteriormente declararía una moratoria sobre los experimentos de ganancia de función) y superó los controles y la supervisión institucionales; las preocupaciones solo surgieron después de que se conocieron los resultados del trabajo.
Cuando informaron de la síntesis de la viruela equina al comité asesor de la OMS sobre la investigación del virus de la viruela, los científicos señalaron lo siguiente:
El laboratorio del profesor Evans informó de esta actividad a las autoridades reguladoras pertinentes, solicitando su aprobación para iniciar y llevar a cabo la síntesis. No obstante, en opinión de los investigadores, es posible que estas autoridades no hayan apreciado plenamente la importancia o la necesidad potencial de regular o aprobar cualquiera de los pasos o servicios implicados en el uso de empresas comerciales que realizan síntesis de ADN comerciales, instalaciones de laboratorio y el servicio postal federal para sintetizar y replicar un patógeno virulento para los caballos.
Uno de los retos es que no se puede trazar una línea clara para descartar toda investigación preocupante. Los enfoques basados en listas, como las listas de agentes selectos o los siete experimentos preocupantes, pueden resultar cada vez más inadecuados para las prácticas actuales y emergentes, sobre todo en un campo tan dinámico.
Pero no está claro cuál sería la alternativa a unas listas que necesariamente están incompletas. Las consecuencias de un descubrimiento científico a menudo no son evidentes de antemano, por lo que puede ser difícil decir qué tipos de experimentos plantean los mayores riesgos o en qué casos los beneficios superan los costos.
Aunque pudiera establecerse una gobernanza más fiable, el alcance geográfico seguiría siendo un desafío. Los profesionales inclinados a realizar trabajos más preocupantes podrían emigrar a jurisdicciones más permisivas. E incluso si una revista se niega a publicar un nuevo hallazgo por motivos de seguridad pública, un investigador puede volver a presentarlo a otra revista con normas más laxas.ac
Sin embargo, creemos que estos retos se pueden superar.
La gobernanza de la investigación puede adaptarse a los desafíos modernos. Se puede crear una mayor conciencia sobre los problemas de bioseguridad en la comunidad científica. Podemos construir mejores medios de evaluación de riesgos que las listas negras (cf. Lewis et al., Information hazards in biotechnology). Una cooperación más amplia puede mitigar algunos de los peligros de la maldición del unilateralista. Se está trabajando en todas estas áreas y podemos seguir mejorando las prácticas y las políticas.
Para leer nuestro artículo completo sobre cómo trabajar en bioseguridad, puedes consultar nuestro análisis de carreras profesionales en investigación y políticas de bioseguridad.
Si quieres centrarte en las pandemias catastróficas dentro del mundo de la bioseguridad, puede que sea más fácil trabajar primero en iniciativas más amplias que cuenten con un apoyo más generalizado y luego pasar a proyectos más específicos. Si ya trabajas en bioseguridad y preparación para pandemias (o en un campo relacionado), quizá te interese abogar por un mayor enfoque en medidas que reduzcan el riesgo de forma sólida en todos los ámbitos, incluso en los peores escenarios.
El mundo podría hacer mucho más para reducir el riesgo de pandemias naturales de la escala de la pandemia de COVID-19. Podría ser más fácil impulsar intervenciones dirigidas a esta amenaza antes de abordar las posibilidades menos probables, pero más catastróficas. Por otra parte, los posibles ataques o las amenazas percibidas a la seguridad nacional suelen recibir una atención desproporcionada por parte de los gobiernos en comparación con las amenazas habituales para la salud pública, por lo que, en algunas circunstancias, puede haber más oportunidades para reducir los riesgos de las pandemias artificiales.
Para hacerte una idea del tipo de roles que podrías desempeñar, puedes consultar nuestra bolsa de trabajo para ver las vacantes relacionadas con la reducción de amenazas biológicas. No es una lista exhaustiva, pero es un buen punto de partida:
Nuestra bolsa de trabajo ofrece oportunidades en bioseguridad y preparación para las pandemias:
Hemos ayudado a personas a formular planes, encontrar recursos y ponerse en contacto con mentores. Si quieres trabajar en este ámbito, solicita nuestro servicio gratuito de asesoramiento individualizado.
Agradecemos a Gregory Lewis su contribución a este artículo, y a Anemone Franz y Elika Somani sus comentarios sobre el borrador.