Usar la IA para mejorar la toma de decisiones sociales

por Zershaaneh Qureshi
Alineación de la IAFuturo a largo plazoGobernanza de la IAIA cooperativaMejora de la toma de decisiones institucionalesPronosticación
“La escuela de Atenas”, del artista renacentista Raffaello Sanzio da Urbino.

Resumen

La llegada de la IAG podría “comprimir un siglo de progreso en una década”, lo que obligaría a la humanidad a tomar decisiones de enorme importancia en un periodo de tiempo demasiado breve para poder acertar.

Pero el desarrollo de la IA también presenta una oportunidad: podríamos crear y desplegar herramientas de IA que nos ayuden a pensar con más claridad, actuar con más sensatez y coordinarnos con mayor eficacia. Y si implementamos estas herramientas para la toma de decisiones con la suficiente rapidez, la humanidad podría estar mucho mejor preparada para afrontar el periodo crítico que se avecina.

Quisiéramos ver a más personas intentando acelerar el desarrollo y la adopción de estas herramientas. Creemos que, para la persona adecuada, este camino podría ser una opción con mucho impacto.

Sin embargo, este no es un ámbito maduro. Existe una gran incertidumbre sobre qué trabajo será realmente más útil, e involucrarse conlleva posibles riesgos adversos.

Por lo tanto, suponemos que, en esta etapa, sería estupendo que unos cientos de personas especialmente reflexivas y emprendedoras trabajaran en usar la IA para mejorar la toma de decisiones sociales. Si el campo resulta prometedor, podrían allanar el camino para que más personas se involucren más adelante.

Nuestra visión general

A veces recomendable

Nos encantaría que más personas trabajaran en este tema. Pero quizá puedas hacer aún más bien trabajando en una de nuestras áreas de problemas de máxima prioridad.

Profundidad del perfil

Profundidad media.⁠a

Por qué podría ser muy importante avanzar en las herramientas de IA para la toma de decisiones

Los seres humanos suelen cometer grandes errores.

Nuestras instituciones ignoraron a los climatólogos durante décadas, respondieron de manera ineficaz a las primeras advertencias sobre la COVID-19 y se precipitaron a librar innumerables guerras que todas las partes lamentaron posteriormente. Es sorprendente cuánto distan a veces nuestras decisiones reales de lo que, en retrospectiva, parece obviamente necesario.

¿Por qué sigue ocurriendo esto? A veces malinterpretamos los hechos o no logramos predecir los retos que tenemos por delante. Otras veces, sabemos que hay un problema, pero no tomamos las medidas suficientes ni coordinamos una respuesta.⁠b

Actualmente estamos desarrollando rápidamente sistemas avanzados de IA que podrían transformar todos los aspectos de la sociedad, lo que hace que una buena toma de decisiones sea aún más crítica. Pronto podríamos enfrentarnos a:

  • Una población completamente nueva de agentes extremadamente capaces, potencialmente con objetivos e intereses distintos a los de los seres humanos
  • Un mercado laboral totalmente reconfigurado en el que los sistemas de IA, en lugar de los humanos, impulsan gran parte o la totalidad del progreso económico.
  • Sistemas de IA que desarrollan nuevas tecnologías avanzadas —armas incluidas— más rápido de lo que podemos estudiar sus riesgos.
  • Tensiones sociales y geopolíticas en torno a quién controla o recibe los beneficios de la IA avanzada, que podrían escalar hasta convertirse en un conflicto.

Los sistemas avanzados de IA también podrían producir ideas y resultados económicos mucho más rápido que los humanos, potencialmente comprimiendo el progreso de un siglo en una década —lo que significa que las decisiones que antes se tomaban a lo largo de años podrían tener que tomarse en cuestión de meses.

Por lo tanto, la probabilidad de cometer errores es alta. Y, como hemos argumentado en otras ocasiones, lo que está en juego podría ser existencial.

Si queremos transitar bien este periodo, tendremos que pensar con más claridad, actuar con más sabiduría y coordinarnos con más eficacia que antes. Y eso es mucho pedir.

Las herramientas de IA podrían ayudarnos a tomar decisiones mucho mejores

El desarrollo de la IA avanzada podría tanto dificultar la toma de decisiones como aumentar lo que está en juego en las decisiones futuras de la humanidad. Pero la IA no es un monolito y —quizás de manera contraintuitiva— creemos que ciertas herramientas de IA podrían en realidad ser parte de la solución.

Los sistemas de IA son capaces de hacer cosas que los humanos simplemente no pueden: pueden absorber mucha más información, procesarla a velocidades enormemente mayores y mejorar su rendimiento al practicar la misma tarea millones de veces.

Ya han superado a los mejores humanos en juegos de estrategia como el Go, y ahora también tienen un desempeño impresionante en tareas complejas de razonamiento y resolución de problemas. Y si alguna vez has utilizado herramientas de “investigación profunda” de empresas de IA como OpenAI y Google DeepMind, sabes que los modelos actuales pueden procesar enormes cantidades de información y convertirlas en conclusiones coherentes mucho más rápido que incluso las mentes humanas más brillantes.

Teniendo esto en cuenta, creemos que está a nuestro alcance contar con herramientas de IA que puedan mejorar considerablemente la toma de decisiones humana; algunas incluso podrían desarrollarse con la tecnología actual.

Dos tipos parecen especialmente prometedores:⁠c

  • Herramientas epistémicas, que nos ayudan a comprender qué es cierto y qué es probable que suceda. Por ejemplo:
    • Los verificadores de datos con IA pueden ser evaluadores de la información más fiables e imparciales que los humanos. Actualmente, la sociedad tiene dificultades para alcanzar consensos en cuestiones de hecho: basta pensar en la frecuencia con la que los desacuerdos políticos se reducen a una disputa sobre los hechos, o en la facilidad con la que la desinformación se propaga en línea. Tendremos que mejorar mucho en este aspecto si queremos sortear la disrupción epistémica provocada por la IA avanzada.
    • Los sistemas de pronósticación de la IA podrían ayudar a las instituciones a hacer mejores predicciones sobre los acontecimientos mundiales y a modelar los efectos de diferentes políticas.⁠d
    • De forma más especulativa, las herramientas de IA para el progreso moral podrían ayudarnos a razonar sobre cuestiones éticas complejas y, potencialmente, a alcanzar un mayor consenso como sociedad.
  • Herramientas de coordinación, que ayudan a los grupos a colaborar y a tomar mejores decisiones colectivas, incluso si tienen intereses contrapuestos. Por ejemplo:
    • Las herramientas de negociación de IA podrían encontrar acuerdos mutuamente beneficiosos que, de otro modo, pasarían desapercibidos, tal vez simulando rápidamente miles de horas de negociación y evaluando una enorme cantidad de acuerdos antes de presentar una propuesta.
    • Los sistemas de verificación con IA podrían supervisar de forma fiable e imparcial el cumplimiento de los acuerdos y superar así las barreras de confianza que a menudo impiden la cooperación entre grupos.
    • Las herramientas de transparencia estructurada podrían facilitar un intercambio de información estrictamente controlado, lo que permitiría a las partes detectar amenazas específicas entre sí —como, por ejemplo, si alguien está fabricando armas peligrosas— sin los mayores costos de privacidad que conlleva la vigilancia ordinaria.
    • Hay investigaciones en curso en el campo de la “IA cooperativa” que exploran más formas de usar la IA para mejorar la coordinación.

Creemos que estas aplicaciones abordan algunas de las fallas más comunes de la toma de decisiones humana. A menudo nos dejamos engañar por información falsa, predecimos de forma incorrecta cómo se desarrollarán las cosas o no logramos evitar resultados que nadie deseaba porque no podemos cooperar.

Otra virtud de estas aplicaciones es que, en general, parecen ser más útiles para propiciar resultados buenos que malos. Como regla general, parece que empoderar a las personas para que comprendan mejor el mundo y se coordinen entre sí suele ser bueno para la humanidad, al menos bajo el supuesto de que, por lo general, las personas tienen buenas intenciones.⁠e

Por supuesto, esta suposición no siempre se cumple. Creemos que existe cierto riesgo de que las personas utilicen deliberadamente incluso estas herramientas de IA para causar daño, una posibilidad que abordamos más adelante.

Podríamos acelerar de forma diferencial el despliegue de herramientas de toma de decisiones basadas en IA

En este momento, solo un puñado de proyectos está desarrollando el tipo de herramientas de IA que describimos anteriormente —una gota en el océano en comparación con los miles de millones invertidos en desarrollar agentes de IA con capacidades más amplias.

Además, a menudo existe un desfase entre el momento en que la sociedad tiene la capacidad de crear un producto y el momento en que realmente se crea y se despliega con éxito. Pensemos en las vacunas contra la COVID-19: aunque la tecnología de ARN mensajero subyacente a estas vacunas se demostró a mediados de la década del 2000, en realidad no llegaron hasta finales de 2020 —casi un año después de iniciada la pandemia.

Esto apunta a una oportunidad: podríamos acelerar el desarrollo y la adopción de herramientas de IA para la toma de decisiones, lo que significaría obtener sus beneficios más rápido. Incluso una pequeña aceleración podría tener consecuencias importantes: por ejemplo, disponer de sofisticadas herramientas de verificación apenas unos meses antes podría significar que los compromisos críticos de seguridad se concreten antes de desarrollar sistemas de IA peligrosos, en lugar de llegar demasiado tarde para tener algún impacto.

Lo que señalamos aquí es una forma de “desarrollo tecnológico diferencial”: influir en el orden en que surgen las diferentes tecnologías para hacer el mundo más seguro. En este caso, la idea es acelerar el desarrollo de ciertas capacidades de IA que promueven la seguridad para que estén disponibles antes de que tengamos que lidiar con otras capacidades de IA más riesgosas.⁠f

Como hasta ahora hemos visto muy pocos proyectos en esta dirección, todavía hay muchas oportunidades al alcance de la mano. Más adelante, describimos parte del trabajo que creemos que podría resultar útil.

¿Cuáles son los argumentos en contra de trabajar en el avance de las herramientas de toma de decisiones con IA?

Dicho todo esto, hay algunas objeciones que creemos que las personas deberían tener muy en cuenta al decidir si trabajar en este ámbito.

“De todos modos, estas tecnologías podrían desarrollarse por defecto”

Las grandes empresas de IA están compitiendo por desarrollar modelos que destaquen en todo tipo de razonamiento complejo, y están logrando rápidos avances. Mientras tanto, en el mercado existen cada vez más incentivos para crear productos de IA destinados a tareas específicas y comercialmente valiosas, que podrían incluir algunas de las aplicaciones mencionadas anteriormente.

Por lo tanto, es posible que personas que intentan ganar dinero desarrollen de todos modos herramientas de IA para la toma de decisiones, lo que significa que podría no ser un buen uso del tiempo para quienes desean hacer el bien con sus carreras profesionales. ¿Por qué no simplemente esperar a que esto suceda y hacer otra cosa con tu tiempo?

Esto parece correcto hasta cierto punto. Como regla general, centrarse en algo que ya tiene incentivos comerciales probablemente reducirá el impacto contrafáctico de tu trabajo.

No obstante, creemos que todavía hay formas de tener un impacto significativo en este ámbito, especialmente si te centras en los vacíos del mercado a la hora de decidir qué proyecto llevar a cabo.

En primer lugar, tu trabajo aún podría ayudar a la sociedad a obtener los beneficios de estas herramientas antes de lo que habrían llegado de otro modo.

Podrías acelerar las cosas de manera directa (por ejemplo, logrando crear una herramienta específica antes que nadie). E incluso si tu trabajo es superado por otro proyecto, aún podría tener efectos acumulativos que aceleren la llegada de futuras herramientas. Por ejemplo, si atrae más inversión o genera conocimientos relevantes, tu proyecto podría permitir a otros alcanzar un determinado hito más rápido, lo que a su vez podría adelantar el siguiente hito, y así sucesivamente.

Y, como hemos dicho, incluso una pequeña aceleración podría tener un gran impacto aquí.

Es importante señalar que, aunque creemos que los modelos de vanguardia acabarán sobresaliendo en tareas de modo de pensar y coordinación, simplemente esperar a que se implementen buenas herramientas de toma de decisiones podría significar obtenerlas una vez que la IAG ya haya llegado. Para entonces, podría ser demasiado tarde para usarlas para evitar una catástrofe.

En segundo lugar, podrías centrarte en productos menos incentivados por el mercado.

Por ejemplo, aunque las herramientas avanzadas de pronósticación de la IA podrían desarrollarse por defecto para usos rentables como las operaciones financieras, hay mucha menos presión comercial para desarrollar sistemas de IA capaces de predecir otras cosas, o para crear herramientas sofisticadas para razonar sobre ética. g

“¿No haría esto que las capacidades peligrosas de la IA llegaran más rápido, cuando deberíamos estar ralentizando el proceso?”

Al acelerar el progreso de estas herramientas, también se podría aumentar el conocimiento, el entusiasmo y la inversión en I+D de la IA a un nivel más general. Esto podría adelantar la llegada de la IAG, dejándonos menos tiempo para prepararnos.

Tu trabajo también podría mejorar ciertas capacidades peligrosas. Por ejemplo, creemos que los sistemas de IA que destacan en la planificación plantean el riesgo de desempoderar a los humanos, y desarrollar sistemas que sean excelentes en la pronosticación podría aumentar peligrosamente las capacidades de planificación de la IA.

Hemos analizado estas preocupaciones en otra parte, y hay mucho que decir al respecto. Pero en este contexto, vale la pena tener en cuenta lo siguiente:

  • Aunque los proyectos en este ámbito pueden contribuir en cierta medida a generar expectativas exageradas en torno a la IA, estos efectos probablemente serán casi insignificantes en comparación con los miles de millones de dólares que ya se están invirtiendo en el desarrollo de la IAG. En compensación, podrías tener un impacto extraordinario en la capacidad de la humanidad para tomar decisiones acertadas.
  • Podrías (y probablemente deberías intentar) enfocarte en aplicaciones de menor riesgo que no alimenten directamente el desarrollo de capacidades peligrosas. Por ejemplo, crear herramientas de IA para la verificación de datos parece mucho más seguro que desarrollar herramientas que aprovechen la planificación estratégica o la persuasión.
  • Si estas herramientas mejoran de manera significativa nuestra capacidad para sortear los mayores desafíos del mundo, cierta aceleración en la llegada de capacidades peligrosas de la IA aún podría valer la pena en términos generales.

Las intervenciones que ralentizan el progreso de las tecnologías peligrosas también tienen un papel que desempeñar, ya sea mediante regulaciones que permitan a las empresas tomarse su tiempo en materia de seguridad sin tener que asumir los costos de ralentizaciones unilaterales, o quizás incluso a través de campañas para detener por completo el desarrollo de la IA de vanguardia. Sin embargo, acelerar el progreso en las tecnologías que promueven la seguridad es algo que puede darse de forma simultánea. También podría ser más fácil: mientras que ralentizar requiere el acuerdo de funcionarios o empresas, tu puedes simplemente decidir desarrollar una nueva herramienta sin necesidad de consenso. Y es probable que enfrentes menos resistencia, ya que tu estrategia no implicará renunciar a los beneficios futuros de la inteligencia artificial ni retrasarlos (como tampoco amenazará las ganancias de las empresas poderosas).

“La gente podría utilizar estas herramientas de forma peligrosa”

Al igual que ocurre con muchas tecnologías, las herramientas de IA para el modo de pensar y la coordinación podrían utilizarse para causar daño.

Al fin y al cabo, mejorar la comprensión del mundo y la coordinación con los demás suele hacernos más capaces de alcanzar nuestros objetivos. Y dado que a veces las personas tienen objetivos perjudiciales para otras, estas herramientas podrían usarse para hacer cosas malas de forma más eficaz.

Por ejemplo, los grupos que tienen acceso a herramientas que mejoran sus capacidades de negociación o pronosticación podrían utilizarlas para obtener ventajas estratégicas ilegítimas sobre aquellos que no disponen de tales herramientas. En casos extremos, esto podría incluso permitir una peligrosa toma de poder.

Suponemos que los actores con intenciones genuinamente maliciosas simplemente no son tan comunes.⁠h En términos generales, parece que la mayoría de las decisiones perjudiciales no se toman porque las personas realmente quieran causar daño, sino porque malinterpretamos una situación, no nos damos cuenta de las consecuencias que podrían tener nuestras acciones o no logramos encontrar una solución que sea menos costosa para todos los involucrados: defectos que las herramientas de IA para la toma de decisiones nos ayudarían a superar.

Y como dijimos antes: una regla general de sentido común aquí es que empoderar a los seres humanos para que comprendan el mundo y se coordinen mejor parece ser por lo general algo bueno para la humanidad.

Por lo tanto, nuestra hipótesis es que, en general, las herramientas de toma de decisiones de IA nos ayudarán a prevenir resultados negativos con más frecuencia de la que los propiciarán. Esta es una de las razones clave por las que nos entusiasman en gran medida estas herramientas.

Pero se trata de una generalización, y no será válida para cada herramienta de toma de decisiones de IA que se pueda crear.⁠i Por lo tanto, si estás decidiendo si crear o promover una nueva herramienta, debes tener en cuenta sus riesgos específicos de uso impropio, y si en realidad podría favorecer los usos perjudiciales por encima de los beneficiosos. Estas son preguntas difíciles, por lo que deberías buscar ayuda al intentar responderlas.

Los riesgos más extremos en este caso —como la posibilidad de facilitar una toma de poder por medio de la IA— también ponen de relieve la importancia de que las herramientas de toma de decisiones de IA lleguen a suficientes manos. Por defecto, los actores más poderosos tendrán acceso a mejores tecnologías que todos los demás. Pero si logramos que las herramientas de toma de decisiones sean ampliamente accesibles y equipamos a las instituciones clave para utilizarlas, podríamos evitar que un solo grupo obtenga ventajas peligrosas sobre el resto.

Es posible que haga falta un esfuerzo específico para lograrlo, por lo que, si decides trabajar en esto, te animamos a que le dediques ese esfuerzo.

Entonces, ¿deberías trabajar en esto?

En resumen: es complicado, pero si tienes el perfil adecuado, trabajar en esto podría tener muchas ventajas. Animamos a cualquier persona interesada a que investigue si podría ser una buena opción en su caso; por ejemplo, solicitando hablar con uno de nuestros asesores.

Por las razones anteriores, parece que parte del trabajo en este ámbito acabará teniendo muy poco impacto, y otra parte podría incluso tener efectos negativos.

Es más probable que evites los escollos si logras priorizar los proyectos de toma de decisiones con IA con las siguientes características:

  • Poco incentivados por el mercado.
  • Poco propensos a impulsar el desarrollo de otras capacidades peligrosas de la IA.
  • Más útiles para fines beneficiosos que para fines perjudiciales, o más resistentes al uso impropio.

Pero decidir qué proyectos llevar a cabo partiendo de esta base es mucho más fácil de decir que de hacer. Y como no hay muchas oportunidades de trabajo concretas en este ámbito, trabajar en esta área también puede requerir un enfoque más emprendedor que el necesario para abordar muchos otros problemas graves.

Por lo tanto, en general, no creemos poder recomendar este trabajo tan ampliamente como recomendamos trabajar en áreas más maduras, donde las vías para lograr un impacto están mejor probadas y trazadas con mayor claridad.

Aun así, creemos que los esfuerzos por avanzar en las herramientas de toma de decisiones basadas en la IA podrían tener un gran impacto para la persona adecuada. Si se te da especialmente bien lidiar con la ambigüedad, tienes mentalidad emprendedora y un buen criterio para determinar qué proyectos priorizar, esto podría ser ideal para ti. En esta etapa, nos entusiasmaría ver quizá a unos cientos de personas más trabajando en esta área.

Si te interesa ser una de esas personas, te recomendamos crear una red de contactos en seguridad de la IA y encontrar primero a personas que puedan ayudarte a analizar ideas de proyectos específicos.

También vale la pena señalar que algunos investigadores —como los autores de este artículo de Forethought— se muestran más optimistas que nosotros respecto a la posibilidad de que haya mucha más gente trabajando en esta área. ¡Así que es posible que la estemos subestimando!

En cualquier caso, también recomendamos mantenerse al día con el panorama cambiante de los retos de la IA y estar preparados para dar un giro si otras necesidades se vuelven más graves.

Cómo trabajar en esta área

Estas son las principales recomendaciones que hemos visto para quienes desean acelerar el desarrollo y la adopción de herramientas de IA para la toma de decisiones.

Ayudar a crear herramientas de IA para la toma de decisiones

Lo más directo que puedes hacer es trabajar en algún lugar donde se estén creando estas herramientas. En la bolsa de trabajo que aparece a continuación, puedes encontrar algunas organizaciones y proyectos de investigación relevantes que están contratando. Pero, dado que el campo actualmente es pequeño, en su lugar podrías considerar fundar tu propio proyecto.

En cualquier caso, hay mucho por hacer aquí: no solo el trabajo fundamental de ingeniería, sino también crear demostraciones, conseguir el apoyo de las partes interesadas, diseñar interfaces de usuario atractivas para los responsables de la toma de decisiones, realizar estudios de mercado para adaptar los productos a las necesidades de los usuarios y garantizar que los proyectos operen de manera eficiente.

Esto significa que no es necesario ser un experto técnico para unirse o fundar proyectos de este tipo: también necesitan excelente personal de operaciones, gerentes de producto y mucho más.

Jungwon Byun

Jungwon pasó años trabajando en servicios financieros antes de interesarse por el potencial transformador —y los riesgos— de la IA avanzada. Se dio cuenta de que su camino de mayor impacto podría consistir en usar la IA para mejorar el conocimiento humano y la toma de decisiones, y en 2019 cofundó Ought: un laboratorio de investigación dedicado a escalar el buen razonamiento. Ese mismo año descubrió el sitio web y el pódcast de 80.000 Horas, que la ayudaron a ampliar rápidamente su comprensión sobre la seguridad de la IA y el riesgo existencial.

Jungwon es ahora directora de operaciones de Elicit, una herramienta de investigación de IA lanzada por Ought que más tarde se escindió como una corporación de beneficio público. Ha ayudado a millones de investigadores a comprender el mundo y a razonar de forma más eficaz.

Trabajo complementario

Hay otras formas de apoyar estos esfuerzos sin involucrarse directamente en la creación de las herramientas. Por ejemplo, podrías:

  • Medir y orientar estas capacidades beneficiosas:
    • Diseñar benchmarks o evaluaciones para las capacidades de IA que más ayudarían en la toma de decisiones.
  • Trabajar en tecnología e infraestructura de apoyo:
    • Desarrollar tecnologías complementarias que ayuden a eliminar las barreras para la adopción, por ejemplo, abordando las preocupaciones de los usuarios en materia de privacidad o seguridad.
    • Seleccionar y gestionar conjuntos de datos que puedan utilizarse para entrenar herramientas de IA especializadas en la toma de decisiones —por ejemplo, datos sobre errores pasados en pronosticación o negociación, o notas de investigación de alta calidad de campos en los que las herramientas especializadas de toma de decisiones podrían ser muy útiles.
    • Crear infraestructura —como bases de datos o directorios en línea— para ayudar a las personas a compartir recursos y colaborar en proyectos.
  • Ayudar con la implementación:
    • Ayudar a integrar estas herramientas en los procesos de toma de decisiones existentes en instituciones clave, lo que incluye capacitar a las partes interesadas sobre cómo utilizarlas.

Posiciónate para ayudar en el futuro

Si actualmente no puedes trabajar en nada de esto —o simplemente no crees que sea la mejor opción en este momento—, aún puedes posicionarte para ayudar en el futuro de la siguiente manera:

  • Trabajar en cualquier empresa (no perjudicial) o fundarla, especialmente si es una empresa tecnológica, para poder aprender y practicar las habilidades necesarias para fundar proyectos, o consultar los pasos sobre el capital profesional que figuran en nuestro perfil de fundador de proyectos.
  • Desarrollar experticia en campos en los que estas herramientas de IA podrían podrían tener un impacto especial, como la pronosticación o la diplomacia.
  • Unirse a instituciones clave (como agencias gubernamentales u organismos internacionales) que podrían beneficiarse mucho de las herramientas de IA para la toma de decisiones, y mantenerse al día con estas tecnologías mientras se esté allí, para poder ayudar a integrarlas más adelante.

¿Qué oportunidades hay?

El campo es actualmente pequeño, pero nuestra bolsa de trabajo ofrece algunas oportunidades relevantes, entre ellas puestos vacantes, financiamiento y becas.

Ver todas las oportunidades

Más información

  • AI tools for existential security de Forethought, y sus apéndices
  • Design sketches for a more sensible world, una serie de artículos de Forethought
  • What’s important in “AI for epistemics”? de Lukas Finnveden
  • The most interesting startup idea I’ve seen recently: AI for epistemics de Ben Todd
  • Security without dystopia: Structured transparency de Eric Drexler
  • Open problems in cooperative AI por Allan Dafoe, Edward Hughes, Yoram Bachrach, Tantum Collins, Kevin R. McKee, Joel Z. Leibo, Kate Larson y Thore Graepel

Para obtener ideas de proyectos específicos, recomendamos la lista de ideas para proyectos sobre el “modo de pensar” de la IA de Lukas Finnveden y las opciones destacadas en la serie de “bocetos de diseño” de Forethought (enlazada más arriba). También nos parecen excelentes los ejemplos que figuran en la página de becas de la Future of Life Foundation, aunque el plazo de solicitud para esta beca ya está cerrado.

También puede leer nuestro artículo relacionado sobre la mejora de la toma de decisiones en instituciones clave. Se publicó por primera vez en 2017, antes del auge de la IA generativa, por lo que no analiza herramientas de IA en particular, pero sí presenta argumentos más amplios a favor de mejorar la toma de decisiones a nivel social.

Agradecimientos

Este perfil se basa en gran medida en el artículo de Forethought AI tools for existential security.

Muchas gracias a Arden Koehler, Lizka Vaintrob, Niel Bowerman, Max Dalton y Rose Hadshar por sus aportes.


Publicación original: Zershaaneh Qureshi (2025) Using AI to enhance societal decision making, 80,000 Hours, septiembre.