Los expertos en IA han acertado en muchas ocasiones

por Dylan Matthews
Alineación de la IAAltruismo eficazHistoria del altruismo eficazInteligencia artificialIA transformadoraPronosticación de la IA

Intenta mantener la mente abierta a medida que el mundo se vuelve cada vez más extraño

Un gran grupo de varios cientos de personas se reunió al aire libre para hacerse una foto de grupo; la mayoría levantaba las manos y saludaba con entusiasmo. La variopinta multitud parece estar en un evento de empresa u organización; muchos llevan camisetas azul claro y están colocados sobre alfombras de colores delante de árboles y edificios.
El público en EAG 2015 (Centre for Effective Altruism)

En 2015, asistí a mi primera conferencia EA Global. En aquel entonces, se permitía a los periodistas publicar lo que se discutía en las conferencias. Esta norma se modificó para todos los eventos posteriores debido a mis acciones.

Mi contacto con el altruismo eficaz en aquella época se producía principalmente a través de personas que habían elegido carreras profesionales bien remuneradas con el fin de “ganar para donar” a organizaciones benéficas dedicadas a la salud global, sobre lo cual había escrito en el Washington Post. También sabía que el movimiento se preocupaba mucho por el bienestar animal. Estaba al tanto de que había gente preocupada por los riesgos catastróficos y, concretamente, por la IA; esto había aparecido en un perfil que escribí sobre Open Philanthropy (mi actual empleador, aunque hoy en día con un nuevo nombre). Pero en general, seguía pensando en el altruismo eficaz como la gente de las mosquiteras y los compromisos de cría sin jaulas.

Me sorprendió mucho lo predominantes que fueron los debates sobre el riesgo asociado a la IA en el evento. El panel estrella contó con la presencia de Nick Bostrom, autor de Superinteligencia; Nate Soares, futuro autor de Si alguien la crea, todos moriremos; el legendario científico informático Stuart Russell; y un Elon Musk aún extraño, pero anterior a su “MAGAficación”, hablando sobre la toma de poder por parte de la IA. La mayoría de las conversaciones que mantuve con los asistentes trataron sobre el riesgo asociado a la IA.

La mayoría de los nombres de estas personas eran nuevos para mí. No los recuerdo a todos, pero recuerdo haber hablado con un tipo que trabajaba en IA en Google llamado Chris Olah; con Amanda Askell, que entonces estaba cursando un doctorado en filosofía; y con Buck Shlegeris, entonces ingeniero de software en PayPal.

Mi principal conclusión de la conferencia fue el temor a que un movimiento que podría hacer un bien increíble a las personas más pobres del mundo y a los animales más vulnerables estuviera siendo distraído por preocupaciones especulativas sobre una tecnología que no existía. Escribí sobre esas preocupaciones en un artículo de Vox. La mayoría de los altruistas eficaces que conocía pensaban que el artículo era muy malo. Como de costumbre, Scott Alexander fue quien expresó sus frustraciones de la forma más elocuente y persuasiva. Soy una persona profundamente reacia a los conflictos, lo cual es una de las razones por las que ya no me dedico al periodismo, así que todo esto me entristeció bastante. Pero seguía pensando que tenía razón y que todo este asunto de la IA podría acabar siendo un grave desvío para el altruismo eficaz.

Once años después, es extremadamente, extremadamente obvio que me equivoqué. No me tomé esta tecnología, entonces inexistente, ni remotamente en serio y las personas que conocí que sí se la tomaron en serio pudieron realizar un trabajo con un impacto increíble gracias a ello. Chris Olah fundó, más o menos, el campo de la interpretabilidad mecánica (¡y acuñó el término!) y pasó a cofundar Anthropic. Amanda Askell es responsable de la personalidad de Claude y una de las personas más influyentes en el campo de la IA. Buck Shlegeris fundó Redwood Research, quizás el centro más interesante de trabajo en seguridad técnica de la IA fuera de un gran laboratorio.

Todos ellos hicieron, en la década siguiente, una apuesta personal realmente arriesgada: que esta tecnología iba a ser algo muy, muy importante a lo que valía la pena dedicar la mayor parte de sus carreras profesionales. En aquel momento pensé que era una apuesta bastante mala. Sin embargo, dio sus frutos más de lo que jamás hubiera podido imaginar.

¿Qué debería aprender de este error?

Para que quede claro, el error que cometí no fue el no haber adoptado la evaluación exacta de los peligros y su lugar entre las áreas de trabajo de la IA que las personas mencionadas anteriormente sostenían en ese momento. Esas personas, entonces y ahora, no tienen opiniones iguales ni, en muchos casos, siquiera similares sobre esas cuestiones. Algunas de ellas (Askell y Shlegeris) no se habían pasado a trabajar en la seguridad de la IA a tiempo completo en 2015 y se incorporaron un poco más tarde.

Lo que unía a esas personas era una apertura a la idea de que la IA podría resultar enormemente importante, de que probablemente mejoraría con bastante rapidez, de que tenía muchas posibilidades de reconfigurar drásticamente nuestras vidas sociales, políticas y económicas y de que averiguar cómo adaptarse a los cambios sociales que desencadenara era una de las cosas más importantes que una persona podía hacer en su carrera profesional.

Tenían razón al mostrarse abiertos a esa posibilidad. Yo me equivoqué al descartarla.

Como resultado, he cambiado mucho de opinión. Por un lado, he reconsiderado algunas heurísticas que me llevaron a cometer ese error. Gran parte de mi escepticismo se debía a que parecía que solo una comunidad bastante pequeña de personas se tomaba en serio estas preocupaciones. Uno esperaría que, si fuera algo tan importante, hubieran respondido más instituciones convencionales; que los científicos informáticos convencionales estuvieran publicando grandes declaraciones conjuntas sobre los peligros, similares a las que publican los científicos del clima; que las instituciones financieras y las aseguradoras se estuvieran preparando para un gran impacto de la IA. Nada de eso estaba ocurriendo.

Resulta que esas instituciones no son tan buenas para la predicción como yo pensaba, o tal vez simplemente están menos interesadas o incentivadas de lo que yo creía para intentar predecir rigurosamente el futuro. El rápido éxito del aprendizaje profundo no fue algo que ni siquiera la mayoría de los científicos informáticos anticiparan, o al menos no anticiparon que escalara hasta el punto que hemos visto ahora. La comunidad empresarial resulta estar inquietantemente poco preparada para muchos escenarios que implican un rápido cambio social, como se vio durante la pandemia de COVID.

También he reevaluado un sesgo que tenía entonces (que quizá no hubiera podido articular realmente en su momento) contra cualquier cosa que apestara a “futurismo”. Me consideraba un empirista gruñón, por lo que descartaba como poco convincente y vagamente superficial cualquier cosa que requiriera grandes saltos imaginativos. Podía pensar en los coches autónomos, pues ya se estaban probando. Una IA lo suficientemente potente como para superar en inteligencia a un humano era algo completamente distinto. Creo que gran parte del mundo, especialmente el académico, comparte estos sesgos, lo que puede hacerlos tan malos para predecir como lo era yo.

Recordemos que esto fue en el verano de 2015. El transformador aún no se había inventado. OpenAI aún no se había fundado. El argumento a favor de la IA transformadora tenía que depender en gran medida de razonamientos a priori y extrapolaciones hacia el futuro, lo cual me parecía poco fiable como forma de predecir el futuro. Sigo pensando que ese tipo de especulación está plagado de dificultades (véase a Maxwell Tabarrok sobre el historial de los “extropianos” para un caso de estudio en el que salió muy mal), pero resultó funcionar sorprendentemente bien en este caso. Fue más valioso de lo que había pensado.

Escucha a quienes dicen que las cosas se pondrán raras

Pero quizá el cambio más importante es que ahora confío muchísimo más en esta comunidad concreta de personas, las que predijeron la inteligencia artificial transformadora y los peligros asociados hace más de una década. Es una heurística tosca, por supuesto, y esta comunidad tiene una gran cantidad de desacuerdos internos.

Sin embargo, también cuenta con muchas personas que son sorprendentemente buenas para predecir el futuro, incluso a muy corto plazo. Ajeya Cotra y Peter Wildeford son dos personas en cuyo juicio sobre el estado de la IA y su política confío mucho y que provienen de la amplia órbita del riesgo asociado a la IA y del altruismo eficaz; y, efectivamente, sus predicciones a finales de 2024 sobre lo que sucedería con la IA en 2025 fueron muy acertadas.

El trabajo de 2024 de Leopold Aschenbrenner, Situational Awareness, causó gran sorpresa por los plazos tan rápidos que preveía para la IA, pero la mayoría de sus predicciones resultaron acertadas, según esta retrospectiva. Su proyección para 2026 era de 520 000 millones de dólares en inversión en infraestructura para la IA. Vamos camino de los 650 000-700 000 millones de dólares.

La imagen muestra un gráfico que compara las previsiones de inversión en infraestructura con los datos reales del gasto en centros de datos de IA entre 2020 y 2030. Muestra la proyección de Aschenbrenner (línea discontinua naranja), que indica un crecimiento exponencial hasta alcanzar unos 1,5 billones de dólares en 2030, mientras que el gasto real (línea azul) se situó entre 650 000 y 700 000 millones de dólares en 2026, y las principales empresas tecnológicas van por buen camino para cumplir con los pronósticos de inversiones.
Las empresas están gastando una fortuna en infraestructura de IA. (Jamie Harris / Claude)

Por su parte, Cotra y Wildeford se equivocaron principalmente al predecir que las empresas de IA obtendrían unos ingresos mucho menores de lo que realmente obtuvieron. No acertaron del todo. Pero estuvieron mucho más cerca de acertar que el resto de nosotros.

Así que una lección que he aprendido tras equivocarme en 2015 es tomarme mucho más en serio las predicciones aparentemente descabelladas de este grupo. Cuando oigo predicciones de un crecimiento económico interanual del 30 %, mi respuesta por defecto es un escepticismo extremo. En 2015, mi respuesta habría sido un rechazo rotundo. Sigo sin creer que este sea el resultado más probable. Hay razones de peso para dudarlo. Pero ya he cometido el error de descartar predicciones que parecían descabelladas por parte de los convencidos de la IAG, y no estoy dispuesto a volver a hacerlo.

He estado pensando mucho en un ejemplo aparentemente sin relación alguna que el escritor Keith Gessen dio una vez en medio de una clásica pelea de blogs de la década de 2000:

En el campo que mejor conozco, la historia rusa del siglo XX, existe un gran debate sobre qué constituye la ruptura más significativa. Algunos dicen que es la abdicación del zar, otros que es la Revolución de Octubre, y otros que en realidad es la abolición de la Zona de Asentamiento, y un historiador llamado Edward Keenan argumentó que fue la colectivización que comenzó en 1928. Keenan llegó a argumentar que la Revolución Bolchevique fue un episodio pasajero, una escaramuza, no realmente una parte importante de la historia rusa, pero que lo que ocurrió en el campo a finales de la década de 1920 fue trascendental.

Y sin duda se le podría decir a Edward Keenan, y la gente se lo dijo: “¡Estás loco!”. Pero nadie sería tan imbécil como para decirle a Edward Keenan: “Eres un imbécil”.

Hay un espíritu de apertura intelectual y generosidad implícito en la forma en que Gessen describe aquí a Keenan que me resulta profundamente entrañable. Obviamente, cree que Keenan está equivocado. Pero Keenan no es un imbécil. Si cree que Lenin es una nota al pie en la historia de Rusia y que el verdadero punto de inflexión del país se produjo en las estepas de finales de los años veinte, no tienes por qué estar de acuerdo. Pero hay que tomárselo en serio.

Esta es la actitud que intento adoptar ante las predicciones de plazos cortos, el rápido desplazamiento laboral, los modelos que pueden duplicar su rendimiento de forma autónoma y cosas por el estilo. Es muy posible que sean erróneas. Personalmente, sigo sin creer que vayamos a tener fábricas de robots dirigidas por IA en el desierto en un futuro próximo. Pero si alguien argumenta que sí ocurrirá, escucharé.

Gracias a Max Nadeau, Eli Rose y Claire Zabel por sus atentos comentarios a una versión anterior de este texto.


Publicación original: Dylan Matthews (2026) The AI people have been right a lot, Effective Altruism Forum, 15 de abril.