Plazos amplios
Nadie sabe cuándo la IA comenzará a tener impactos transformadores en el mundo. La gente no está segura y no debería estarlo: simplemente no hay evidencia suficiente para determinarlo con certeza.
Pero no necesitamos esperar a tener certeza. Quiero explorar qué ocurre si nos tomamos en serio nuestra incertidumbre, si actuamos con humildad epistémica. ¿Cómo es una planificación sensata en un mundo con plazos de la IA profundamente inciertos?
Concluiré que tomarse en serio la incertidumbre tiene implicaciones reales sobre cómo uno puede contribuir a que esta transición hacia la IA salga bien. Y tiene aún más implicaciones en cómo actuamos juntos: en nuestra cartera de trabajo orientada a este fin.
Plazos de la IA
Por plazos de la IA me refiero al tiempo que pasará antes de que la IA tenga efectos verdaderamente transformadores en el mundo. La gente suele pensar en esto utilizando términos como inteligencia artificial general (IAG), IA de nivel humano, inteligencia artificial transformadora o superinteligencia. Cada término es utilizado de manera distinta por diferentes personas, lo que dificulta comparar los plazos que plantean. De hecho, incluso la definición que cada individuo da a su término preferido será un tanto vaga, al punto de que, aun después de haberse superado su umbral, podría resultarle difícil especificar en qué año ocurrió.
Muchos comentaristas han sugerido que esto vuelve inútiles términos como IAG, pero no creo que sea así.
Me gusta imaginarlo como un grupo de excursionistas que divisan a lo lejos una montaña que se alza hasta las nubes y más allá, con su pico nevado bañado por la luz del sol. Hablan entusiasmados sobre lo increíble que sería subir tan alto como para estar dentro de una nube. O imaginan estar por encima de las nubes, contemplándolas desde arriba como un ángel. Tras muchas horas de ascenso, notan una ligera neblina. ¿Están ya dentro de la nube? La niebla se vuelve cada vez más espesa hasta que solo pueden ver a 10 metros de distancia. ¿Ya están dentro de ella? Luego, la visibilidad se reduce a 9 metros. Luego a 8. Después, empieza a aumentar de nuevo. Al cabo de una hora solo queda una levísima neblina. ¿Están ahora por encima de las nubes? Pasan otros 30 minutos y la neblina desaparece; todos coinciden en que están por encima de las nubes.
Está claro que en algún momento estuvieron dentro de la nube y, más tarde, por encima de ella. Y es evidente que se trataba de conceptos lógicos y útiles. Por ejemplo, tomaron precauciones como atarse con cuerdas para el trayecto a través de la nube debido a la baja visibilidad, y llevaron cámaras porque sabían que podrían sacar fotos hermosas por encima de las nubes. La falta de límites definidos no vuelve inútiles estos conceptos. Sin embargo, hay que reconocer que resultaban mucho más útiles cuando los excursionistas estaban abajo, planificando su ruta, y mucho menos en las ambiguas zonas limítrofes.
Pienso en la IAG (y en la inteligencia de nivel humano) como la nube, y en la superinteligencia como algo que está por encima de la nube. Son conceptos útiles, a pesar de su vaguedad. Pero resultan notablemente menos útiles cuando uno se acerca a ellos.
Así que creo que tiene sentido la pronosticación de cuándo alcanzaremos algún umbral de IA avanzada que cambie las reglas del juego. Aunque existe cierta incertidumbre inherente debido a la vaguedad de las ideas, y debemos tener cuidado al comparar nuestras estimaciones para asegurarnos de que estamos hablando de la misma versión de estos conceptos.
En cuanto a la IAG, el panorama ya se está volviendo un poco nebuloso. En febrero se publicó un artículo en Nature que argumentaba que el nivel actual de la IA de vanguardia debería considerarse IAG. Yo pondría la vara un poco más alta, pero estoy de acuerdo en que ya es discutible si nos encontramos en la nube.
Para mis propósitos, creo que el umbral clave es cuando el sistema es lo suficientemente capaz como para provocar cambios drásticos en el mundo: cambios civilizatorios. Por ejemplo, el punto en el que la IA podría arrebatarle el control a la humanidad si estuviera desalineada, o en el que ha dejado al 50 % de las personas permanentemente sin empleo, o ha duplicado la tasa global de progreso tecnológico. Algo por el estilo. La razón por la que elijo este punto es que creo que es el que más importa a la hora de planificar nuestras estrategias y carreras profesionales. Para muchos fines, querríamos que nuestros planes dieran sus frutos antes de llegar a ese punto, y es probable que los planes que se materialicen después se vean significativamente alterados. Me referiré a esto como IA transformadora y me aseguraré de mostrar qué criterios utilizan otras personas cuando dan sus propias cifras sobre los plazos.
Plazos cortos frente a plazos largos
Los debates sobre los plazos suelen enmarcarse como un debate de plazos cortos frente a plazos largos.
Uno de los defensores más destacados de los plazos muy cortos es Dario Amodei, director general de Anthropic. En enero de 2025 dijo:
Crear una IA que sea más inteligente que casi todos los humanos en casi todo requerirá millones de chips, decenas de miles de millones de dólares (como mínimo), y lo más probable es que ocurra en 2026-2027.
Un mes después, aclaró:
Es posible que para 2026 o 2027 (y casi con toda seguridad a más tardar en 2030), la mejor manera de concebir las capacidades de los sistemas de IA sea como la aparición en la escena mundial de un Estado completamente nuevo poblado por personas sumamente inteligentes —un “país de genios en un centro de datos”—, con las profundas implicaciones económicas, sociales y de seguridad que ello conllevaría.
En el otro extremo, un buen ejemplo de plazos largos es Ege Erdil, cofundador de Epoch AI, cuya mediana de tiempo para la “automatización total del trabajo a distancia” es 2045: dentro de 20 años.
Aunque los expertos siguen sin ponerse de acuerdo sobre cuándo comenzará la IA a tener impactos transformadores, está claro que no ignoran obstinadamente la evidencia. Pues, como explicó Helen Toner en un magnífico ensayo, los plazos largos para llegar a la IA avanzada se han reducido drásticamente. Antes de ChatGPT, los plazos cortos solían significar algo así como “de 10 a 20 años, así que, como la preparación podría llevar mucho tiempo, deberíamos empezar ya”. Los plazos largos solían significar que “no había indicios de que la IAG fuera a surgir en los próximos 30 años, si es que acaso ocurría en este siglo, por lo que resulta prematuro realizar cualquier trabajo relacionado con el control de la IA avanzada”. Pero ahora vemos plazos cortos como los de Dario Amodei, para quien es “casi seguro” que en los próximos 5 años surgirá una IA con nivel de genio, y muchos defensores acérrimos de los plazos largos afirman ahora que alcanzaremos el nivel humano en tan solo 10 o 20 años.
Aquí hay un buen gráfico elaborado por 80.000 Horas que muestra cómo el tiempo medio pronosticado hasta la IAG en el sitio de predicciones Metaculus se ha acortado de unos 50 años a unos 5 años en un lapso de solo 5 años:
Plazos generales
Así pues, todo el mundo está actualizando sus posturas a partir de la evidencia y acortando sus plazos, pero sigue habiendo un desacuerdo sustancial.
A menudo, esto se plantea como un debate: como si debiéramos intentar determinar quién tiene razón sobre la cuestión de si los plazos son realmente cortos o largos (o medianos). La gente elige ganadores, se afilia a un bando u otro, y se regodea cada vez que la evidencia más reciente favorece a su bando preferido.
Mi afirmación central de hoy es que, para la mayoría de nosotros, ese es el enfoque equivocado. No deberías tener plazos cortos ni plazos largos, sino plazos amplios. Es decir:
La respuesta epistémica correcta ante el desacuerdo persistente entre los expertos es tener una amplia distribución de los plazos de la IA.
En primer lugar, hay demasiado desacuerdo entre personas muy inteligentes e informadas como para que sea razonable tener un rango estrecho de años posibles. Tendrías que atribuir muy pocas probabilidades a que algunos de tus pares epistémicos vean las cosas con más claridad que tú, cuando en realidad eso ocurre la mitad de las veces. Además, muchas de estas personas provienen de campos diferentes y aportan perspectivas diversas, evidencia y heurísticas probadas a lo largo del tiempo que ningún individuo por sí solo está en buenas condiciones de juzgar.
Y, en segundo lugar, muchas de estas mismas personas tienen una amplia distribución de los plazos de la IA. Tomemos, por ejemplo, a Daniel Kokotajlo. Es uno de los autores de AI 2027 y es conocido como una figura destacada del bando de los plazos cortos. Hace unos años, su fecha mediana para que los sistemas de IA fueran “capaces de reemplazar el 99 % de los trabajos actuales totalmente a distancia” era 2027, de ahí el nombre del escenario. Aunque sus plazos se han alargado un poco y, para cuando lo escribieron, 2027 se había convertido más en un escenario temprano ilustrativo que en el punto con un 50 % de probabilidades de haber llegado.
Kokotajlo ha hecho un excelente trabajo al ser extremadamente transparente sobre sus plazos, mostrando sus predicciones (junto con su incertidumbre) para diversos niveles de IA potente. Esta es su distribución de probabilidad actual sobre cuándo tendremos un sistema de IA que sea “al menos tan bueno como los mejores expertos humanos en prácticamente todas las tareas cognitivas”:
Su distribución alcanza su máximo (la moda) en 2028, pero como está muy sesgada hacia la derecha, solo hay un 27 % de probabilidades de que ocurra para entonces. Su mediana se sitúa en el año 2030. Y su intervalo del 80 % (del percentil 10 al 90) va desde 2027 hasta algún momento después de 2050.
Se trata de una distribución amplia. Creo que el intervalo del 80 % de una persona es una buena forma de expresar el abanico de plazos que considera creíbles. Aquí Kokotajlo afirma que probablemente ocurrirá en los próximos 1 a 25 años, pero que existe una probabilidad de 1 entre 5 de que ni siquiera entre en ese amplio rango.
No es el único con una distribución tan amplia. Aquí están los pronósticos de Daniel Kokotajlo, Ajeya Cotra y Ege Erdil de 2023, donde pronostican: “¿En qué año serían capaces los sistemas de IA de sustituir el 99 % de los trabajos actuales totalmente a distancia?”:
Obsérvese que las tres tienen el mismo tipo de forma, solo que estiradas de manera diferente. Y, a pesar de tener medianas muy distintas, en realidad se solapan mucho (algo que este sombreado transparente resalta). Esto demuestra que cada experto tiene una distribución amplia, y que la de la comunidad de expertos en su conjunto es aún más amplia. De hecho, creo que habría opciones mucho peores que simplemente adoptar un modelo mixto de las opiniones de estos tres expertos. Curiosamente, desde 2023, la distribución de Kokotajlo se ha desplazado hacia la derecha y la de Erdil hacia la izquierda.
He aquí una distribución ilustrativa de los plazos de la IAG utilizada por Ben Todd, de 80.000 Horas:
Dwarkesh Patel lo reprodujo en su publicación sobre los plazos de la IA, afirmando que representaba bastante bien su propia incertidumbre, y fijó como fecha mediana el año 2032 para una IA que “aprenda sobre la marcha con la misma facilidad, naturalidad, fluidez y rapidez que un humano, para cualquier trabajo de oficina”.
Esta es la estimación actual de la comunidad de Metaculus sobre cuándo se desarrollará la IAG. Al sintetizar la incertidumbre colectiva de la comunidad, resulta muy amplia y presenta esta misma forma característica:
Este es el resumen de las principales estimaciones de Epoch AI sobre los plazos de la IA de 2023:
Estas se ven un poco diferentes, ya que se representan como probabilidades acumuladas de alcanzar una IA transformadora para una fecha determinada. Sin embargo, todas son muy amplias. Fíjate en el rango de años entre el momento en que cruzan el 10 % y el momento en que cruzan el 90 %. Todas y cada una de ellas tienen un intervalo del 80 % de al menos 50 años de amplitud.
¿Y los investigadores que trabajan en las capacidades de la IA? Grace et al encuestaron a miles de investigadores de IA que presentaban ponencias en sus principales conferencias académicas. Los encuestaron en 2022 (azul) y 2023 (rojo) sobre cuándo “las máquinas sin ayuda podrán realizar todas las tareas mejor y de forma más económica que los trabajadores humanos”:
Se puede observar la enorme variación en los pronósticos individuales (las líneas finas) y que los plazos se acortaron en torno a un 30 % en un solo año. Pero sigue habiendo una gran incertidumbre. Los pronósticos agregados de la comunidad (las líneas gruesas) tienen intervalos del 80 % que van desde años hasta siglos.
Creo que todos deberían tener una distribución con más o menos esta forma. Esta es la mía:
Se refiere a la IA transformadora, definida a grandes rasgos como una IA que sería lo suficientemente poderosa como para dominar el mundo si estuviera desalineada, y que duplica el ritmo del progreso científico y tecnológico. Tiene una forma similar a la de Kokotajlo, pero más amplia, con una mediana en 2038 y un intervalo del 80 % que va de 3 a 100 años.
Volvamos al punto de partida, con la distribución de Daniel Kokotajlo para una IA que sea “al menos tan buena como los mejores expertos humanos en prácticamente todas las tareas cognitivas”:
Aunque a menudo expresamos nuestros plazos con un solo número (como la moda o la mediana), no creo que ese sea un enfoque útil en este caso. Fíjate en ese gráfico. ¿Qué número lo resume? Su única característica real es el pico, pero Kokotajlo afirma que es poco probable que ocurra para entonces (solo un 27 % de probabilidad). La mediana suele ser un dato más adecuado, pero aquí se encuentra en un punto relativamente poco destacable del gráfico (dentro de 4 años) y decir “4 años” oscurecería su argumento de que cree que hay un 10 % de probabilidad de que ocurra en menos de 1 año y un 10 % de que tarde más de 25 años.
Creo que si le explicara a un responsable de políticas inteligente lo que realmente quiere decir con esta distribución, este por fin lo entendería y diría:
Ah, o sea que dices que no tienes ni idea de cuándo sucederá: podría ser el año que viene, o podría ser dentro de seis mandatos presidenciales. Y también dices que hay una probabilidad entre cinco de que ni siquiera se encuentre dentro de ese rango.
Creo que, en realidad, es un resumen bastante bueno, y también resumiría mi propia distribución. Aunque “no tengo ni idea de cuándo sucederá” subestima la información que contiene esta distribución, es un resumen mucho mejor que “4 años”, el cual casi todo el mundo entendería como algo parecido a “entre 3 y 5 años”. Si bien los académicos podrían esperar que la gente interprete un año concreto como la mediana de tiempo, la mayoría de las personas lo interpreta como el momento en el que se les permite empezar a quejarse de que el evento pronosticado aún no ha sucedido.
De hecho, estas distribuciones son tan difíciles de resumir con un solo número, que creo que una parte sustancial del desacuerdo sobre los plazos proviene de que la gente describe diferentes partes del mismo elefante. Por ejemplo, tanto los promotores de la IA como quienes se preocupan por el riesgo existencial hablan mucho de plazos cortos porque “podríamos ver el mundo transformado en tan solo unos pocos años”. No es que piensen que vamos a ver eso, sino que es algo muy importante si es cierto, y tiene una probabilidad decente de serlo. Por el contrario, las voces más conservadoras tienden a centrarse en fechas más lejanas y afirman que “es más probable que tarde entre 10 y 20 años a que tarde solo unos pocos” (centrándose en la probabilidad pura sin ponderarla por importancia o efecto multiplicador).
Ambas cosas pueden ser ciertas al mismo tiempo. Ambas son ciertas en mi propia distribución.
Un peligro particular al comunicar los plazos con una sola cifra es que aumenta la probabilidad de que ese año mencionado llegue y pase sin incidentes, y que las personas que lo indicaron (o la comunidad más amplia de la que forman parte) sean tachadas de tener una postura falsa o desacreditada. Creo que veremos algo de esto cuando llegue 2027, debido al gran número de personas que oyeron hablar de ese escenario, combinado con el hecho de que tantos medios de comunicación lo presentaron como una predicción tajante, en lugar de lo que pretendía ser: un importante escenario ilustrativo.
Además de ser perjudicial para la comunicación, comprimir la propia incertidumbre en una sola cifra sería muy perjudicial para la planificación personal.
Por ejemplo, la distribución de Kokotajlo implica un 28 % de probabilidades de que la IA transformadora se produzca durante el actual mandato presidencial, un 35 % de que ocurra en el próximo mandato, un 13 % de que sea en el posterior, con el 24 % restante repartido entre mandatos cada vez más lejanos:
Se trata de escenarios muy diferentes y claramente sería un error actuar como si el segundo fuera el correcto solo por ser el más probable. Eso eliminaría la posibilidad de protegernos en caso de que una IA transformadora llegue pronto, y de aprovechar los mundos en los que llegue tarde.
Implicaciones
En lugar de intentar determinar cuál es la duración correcta de los plazos, creo que deberíamos adoptar el enfoque de cómo actuar (o planificar) ante unos plazos profundamente inciertos.
Es decir, deberíamos tratar esto como un ejercicio de toma de decisiones racionales en condiciones de incertidumbre: una situación en la que hay mucho en juego y la incertidumbre es inmensa.
Desglosemos algunas de las implicaciones de este enfoque.
Empezaremos por dos errores que son demasiado comunes en el ámbito de las políticas.
En primer lugar, la incertidumbre sobre los plazos de la IA no es una excusa para creer simplemente en el plazo que uno quiera, siempre que esté dentro del rango creíble. Lamentablemente, creo que es probable que muchos ministros del Gobierno adopten este enfoque si un experto les explica esta amplia incertidumbre. Aunque tendrían razón en que la evidencia no es suficiente para refutar su plazo preferido, sería irresponsable por su parte no tener en cuenta otras posibilidades creíbles. Sería como si un alcalde, al enterarse de que hay un 20 % de probabilidades de que el volcán cercano a su ciudad entre en erupción el año que viene, pensara que puede seguir actuando como si no fuera a hacerlo, ya que los expertos también consideran creíble que no entre en erupción. La incertidumbre no es una excusa para dar por sentado que se producirá el resultado plausible que uno elija; más bien, la racionalidad exige respetar todos los resultados plausibles.
En segundo lugar, no podemos limitarnos a esperar a que se resuelva la incertidumbre. A veces eso funciona, pero en este caso sabemos que es muy improbable que se resuelva hasta que tengamos los acontecimientos encima. En ese momento, será demasiado tarde para poner en práctica cualquier medida que no sea una reacción precipitada. Por lo tanto, sentir que la nube de incertidumbre nos da permiso para retrasar la acción equivale a comprometernos a elegir una de las opciones más burdas y menos eficaces disponibles.
En su lugar, tendremos que actuar en condiciones de incertidumbre, teniendo en cuenta toda la gama de posibilidades creíbles.
¿Cómo podemos hacerlo?
Cobertura
Una idea natural e importante es la de cubrirnos frente a la pronta llegada de una IA transformadora, justo cuando menos preparados estamos. Podríamos hacerlo reorientando nuestra cartera de actividades (o tu contribución individual a la cartera de la humanidad) para centrarnos en los plazos cortos algo más de lo que justificarían las probabilidades brutas.
Esto tiene mucho sentido. Recomiendo encarecidamente a los gobiernos, la sociedad civil y los académicos que hagan más para protegerse ante la llegada temprana de la IA transformadora.
Sin embargo, en lo que respecta a las comunidades de profesionales que ya trabajan para que la transición a la IA sea exitosa, creo que ya se están protegiendo fuertemente frente a una IA transformadora temprana. De hecho, existe incluso el riesgo de que vayan más allá de la mera protección y estén apostando activamente a que llegue pronto. No estoy seguro, ya que es difícil conocer la cartera completa de trabajo.
Sin duda, se ven muchas más peticiones de trabajo orientadas a plazos muy cortos que a plazos largos. Pero también hay razones de peso para considerar los plazos largos en nuestra planificación, y formas en las que el trabajo orientado a plazos largos también puede tener un efecto multiplicador extremadamente alto.
Veamos dos cosas clave que suceden cuando los plazos son más largos.
Un mundo diferente
Con plazos más largos, la IA llega a un mundo que no se parece al de hoy. Cuanto más tiempo pase hasta que aparezca la IA transformadora, más diferente será el mundo en ese momento clave.
Como punto de referencia, supongamos que llega pronto, en 2028. Las cosas serán sin duda diferentes a como son hoy, pero cabría esperar que muchos de los rasgos generales sean similares. Probablemente tendríamos el mismo presidente en EE. UU., los mismos actores principales y las mismas tecnologías clave. Si la IA transformadora llegara en tan solo dos años, apostaría a que sería algo parecido a la historia de “AI 2027”, en la que un laboratorio puso en marcha la automejora recursiva de forma imprudente.
Ahora supongamos que la IA transformadora llega en 2035. Esto no ocurriría en este mandato presidencial ni en el siguiente, sino en el posterior. Quién sabe quién estaría en el poder o en qué situación se encontraría Estados Unidos. Es probable que en esos nueve años se produjeran grandes cambios en las tecnologías fundamentales de la IA (hace nueve años no existían los modelos de lenguaje a gran escala ni los transformadores). Bien podríamos tener otras empresas líderes en IA, tal vez como resultado del estallido de una burbuja que haya acabado con los pioneros que se expandieron en exceso.
Para 2035, es muy posible que los controles de exportación hayan resultado contraproducentes y ayudado a China a tomar la delantera en los chips, al incentivarla a desarrollar su propia industria y otorgarle 13 años para perfeccionarse. Esta fue una dinámica clave que la Casa Blanca tuvo en cuenta al redactar los controles de exportación, pero se enfocaron en plazos más cortos… Para 2035, China también podría haber invadido Taiwán, lo que privaría a Occidente de su principal fuente de chips.
Para 2035, el desempleo podría alcanzar los dos dígitos debido a sistemas de IA cada vez más potentes, y la opinión pública sobre la IA podría volverse muy intensa. La ventana de Overton para la regulación de la IA se situará en un lugar muy distinto.
Lo mismo podría ocurrir con el orden geopolítico. Los últimos nueve años han sido testigos de la invasión de Ucrania, el creciente aislamiento de EE. UU. y una pandemia mundial. Otros nueve años podrían traer consigo una cantidad de cambios similar.
Y si no hemos jugado bien nuestras cartas, quienes trabajamos para evitar riesgos catastróficos de la IA también podríamos haber perdido mucho poder, ya que nuestras ideas sobre el riesgo asociado a la IA podrían considerarse desacreditadas tras haber pasado tantos años sin que se produzcan los efectos verdaderamente transformadores de los que hablábamos.
En resumen, cuanto más largos sean los plazos, más diferentes serán las cosas, tanto de manera sistemática y predecible como por simple difusión aleatoria y caos. Por lo tanto, tomarse en serio unos plazos más largos significa:
- Estar más abiertos a enfoques que no funcionarían en el mundo tal como es hoy,
- Estar menos entusiasmados con enfoques adaptados a las particularidades del mundo actual,
- Estar menos dispuestos a comprometer nuestros valores para complacer a quienes actualmente controlan las empresas y los gobiernos,
- Mostrar menos disposición a decir cosas que hagan pensar a la gente que nuestra posición ha quedado desacreditada si terminamos en un mundo de plazos largos,
- Y dedicar menos tiempo a seguir las noticias diarias sobre lo que acaba de suceder en IA o sobre quién lleva la delantera.
Acciones a largo plazo
Hay muchos tipos de cosas en las que la gente puede trabajar y que pueden dar grandes frutos, pero solo después de varios años. Cosas como:
- Fundar y desarrollar un nuevo campo de investigación
- Fundar una organización o empresa
- Crear un movimiento o comunidad
- Escribir un libro
- Investigación fundamental
- Completar un doctorado
- Un cambio importante de carrera profesional
- Ascender en una gran organización o en el gobierno
- Formar a estudiantes prometedores en seguridad de la IA o gobernanza de la IA
Si solo tienes en cuenta tu impacto durante los próximos tres años, la mayoría de estas opciones serán superadas por otras a más corto plazo. Pero a medida que pasan los años, las opciones a más largo plazo pueden tener un valor muy alto. No siempre son las mejores, pero para las personas o las oportunidades adecuadas, pueden ser opciones con impacto extremo.
Cuando era estudiante de posgrado, me di cuenta de todo el bien que podría lograr si donara gran parte de mis ingresos a lo largo de mi carrera profesional para ayudar a quienes viven en los países más pobres. Y cuanto más lo pensaba, más convencido estaba de que debía poner en marcha algo —una organización— para ayudar a otras personas a hacer lo mismo. Así que Will MacAskill y yo lanzamos Giving What We Can en 2009. Diecisiete años después, más de 10 000 personas se han unido a nosotros, logrando un impacto miles de veces mayor que si hubiera continuado solo.
Este tipo de crecimiento compuesto es una de las principales formas en que los proyectos a largo plazo pueden tener efectos multiplicadores muy grandes, lo que da un gran impulso a nuestro impacto si los plazos son realmente largos.
La creación de nuevos campos puede ser similar. Cuando conocí a Allan Dafoe hace 10 años, no sabía de qué hablaba cuando se refería a la “gobernanza de la IA”, un nuevo campo que intentaba fundar. Ahora es un campo en auge, con cientos de profesionales muy solicitados por muchos gobiernos diferentes.
Cuando empecé a escribir The Precipice, no estaba seguro de si debía hacerlo, porque pensaba que la IAG podría estar demasiado cerca. Pero, como se vio después, hubo tiempo para escribirlo y para que tuviera un impacto real. Me alegro mucho de haberlo hecho, ya que conozco a muchas personas increíbles que trabajan en los mayores riesgos y me dicen que fue leer The Precipice lo que las inspiró a hacerlo. Creo que es una de las mejores cosas que he hecho.
Tras su publicación, solía pensar que simplemente no había tiempo suficiente para escribir otro libro; que estábamos realmente demasiado cerca del momento crítico. Puede que lo estemos, pero creo que me equivoqué sobre la solidez de este argumento. El horizonte temporal para que un libro tenga un impacto real es de unos 5 años (tiempo para planificar el libro, conseguir un contrato editorial, escribirlo, esperar a que las editoriales lo publiquen y, luego, esperar un año o más antes de que tenga suficiente impacto en el mundo).
Sin embargo, creo que solo hay una probabilidad de aproximadamente 1 entre 5 de que la IA transformadora llegue en los próximos 5 años. Por tanto, aunque un libro pueda salir demasiado tarde, esa probabilidad es de apenas 1 entre 5, lo que deja a un proyecto de libro con un 80 % del valor esperado que habría calculado ingenuamente. Así que, si bien hay una probabilidad de 1 entre 5 de que termine arrepintiéndome, desde mi punto de vista sobre los plazos de la IA, en realidad no hay una reducción tan grande del valor esperado debido a la posibilidad de que sea demasiado tarde.
Dicho esto, la probabilidad de que la IA transformadora llegue antes de que tu trabajo dé frutos es solo un factor que influye en si deberías realizar un trabajo enfocado en plazos cortos o largos. Otro factor es que es probable que la seguridad de la IA y la gobernanza de la IA estén más desatendidas ahora que más adelante. Esto genera un multiplicador adicional para el valor del trabajo directo en estas áreas en la actualidad y, en algunos casos, supone un efecto mayor que la probabilidad de que tu trabajo rinda frutos después de la IA transformadora.
En general, creo que los proyectos a más largo plazo pierden peso debido a estas consideraciones, pero a veces sus ventajas lo compensan, especialmente si apuntan a una recompensa muy grande. Supongo que si alguien analizara sus opciones y considerara que la mejor de ellas es aquella que tarda entre 5 y 10 años en dar frutos, aproximadamente la mitad de las veces seguiría siendo su mejor opción incluso después de tener en cuenta los plazos de la IA. Al fin y al cabo, no es raro que tu mejor opción sea varias veces superior a la segunda mejor.
Por lo tanto, creo que la comunidad de personas que trabaja en la IA transformadora probablemente esté subestimando aquellos tipos de trabajo que requieren cinco años o más para dar frutos. La cartera ideal de actividades orientadas a lograr una buena transición a la IA debería incluir una serie de elementos que realmente nos ayuden a tener éxito en mundos en los que dispongamos de más tiempo para intentarlo.
Pero quiero subrayar que nada de esto implica que podamos relajarnos.
Estamos en una carrera contra los plazos de la IA. Simplemente no sabemos si esa carrera es un esprint o un maratón. En cualquier caso, el tiempo apremia.
Conclusiones
Hemos visto que existe un desacuerdo y una incertidumbre sustanciales sobre cuándo la IA comenzará a tener impactos transformadores en el mundo. Esto se debe a que simplemente no hay evidencia suficiente para determinarlo con certeza. Mi argumento es que, a efectos de planificación, no deberíamos adoptar plazos cortos ni largos, sino plazos amplios:
La respuesta epistémica correcta ante el desacuerdo persistente entre los expertos es tener una amplia distribución de los plazos de la IA.
Dada esta profunda incertidumbre, debemos actuar con humildad epistémica. Tenemos que tomarnos en serio la posibilidad de que llegue pronto y tomar precauciones al respecto. Pero también tenemos que tomarnos en serio la posibilidad de que llegue tarde y aprovechar las oportunidades que eso nos brindaría. El mundo en general está haciendo muy poco de lo primero, pero quienes más nos preocupamos por que la transición hacia la IA sea exitosa quizá estemos haciendo muy poco de lo segundo.
Debemos tomarnos más en serio la posibilidad de que el mundo sea muy diferente en ese momento, lo cual debería ampliar nuestras propias ventanas de Overton sobre qué tipo de planes podrían tener éxito. Y no deberíamos descartar todas las acciones que tarden mucho tiempo en dar frutos. Aunque no sirvan de ayuda en mundos de plazos cortos, algunas acciones compensan esto con creces mediante impactos sustanciales si los plazos son largos.
Los financiadores, los asesores de carrera profesional y los constructores de movimientos deberían pensar en esto en lo que respecta a cómo actuamos como comunidad: en la configuración de toda la cartera de trabajo destinada a mejorar el mundo de manera eficaz. Y cada uno de nosotros debería reflexionar sobre lo que esta profunda incertidumbre sobre los plazos significa a la hora de planificar nuestras propias contribuciones en los años venideros.