Nate Silver sobre Sam Bankman-Fried y otras críticas al altruismo eficaz
Ahora estoy más convencido de dividir el altruismo eficaz en los equipos naranja, azul, amarillo, verde y morado. Quizá lo que más le importa al equipo morado es maximizar la filantropía y también le interesan mucho las relaciones públicas. El equipo rojo está un poco más influenciado por el racionalismo y considera la libertad de expresión como una causa fundamental, y cosas por el estilo.
Creo que es difícil tener un movimiento donde se mezclen estas seis o siete influencias intelectuales, porque hace 10 o 15 años la gente se reunía para tomar un café o creció en internet (en una era más libre de internet). Creo que hay similitudes, pero englobarlo todo dentro de un mismo marco empieza a parecer un poco forzado.
— Nate Silver
En el episodio de hoy, Rob Wiblin habla con el autor y pronosticador electoral de FiveThirtyEight Nate Silver sobre su nuevo libro: On the Edge: The Art of Risking Everything (Al límite: el arte de arriesgarlo todo).
On the Edge explora un grupo cultural al que Nate llama “the River” o “el Río”, formado por personas analíticas, competitivas, de mentalidad cuantitativa, que corren riesgos y están dispuestas a ser inconformistas. Es una tendencia de la que él se considera parte y a la que le ha ido bien en las últimas décadas —ha adquirido influencia cultural a través del éxito en las finanzas, la tecnología, las apuestas, la filantropía y la política, entre otras actividades—.
Pero según Nate, es un grupo especialmente vulnerable a la simplificación excesiva y a la arrogancia. Cuando la capacidad de los miembros de este grupo para calcular el “valor esperado” de las acciones no es tan buena como creen, sus apuestas mal calculadas pueden dejar un rastro de destrucción, tal como demuestra el análisis de Nate sobre el largo tiempo que pasó con el CEO de FTX, Sam Bankman-Fried, antes y después de su caída.
Dado que este programa se centra en los problemas más graves del mundo y en cómo resolverlos, nos enfocamos en el análisis de Nate sobre el altruismo eficaz, del que se ha hablado poco en otros medios. Nate conoció a muchos líderes y miembros de la comunidad del altruismo eficaz mientras investigaba para su libro y ha seguido su evolución en internet durante muchos años.
El altruismo eficaz es el estilo de “el Río” de hacer el bien, por su voluntad de oponerse tanto a la moda como al sentido común, ya que basan sus decisiones para donar en cálculos matemáticos y argumentos analíticos con el objetivo de maximizar un resultado.
Nate considera que hay mucho que admirar en esto, pero el libro pinta un cuadro contradictorio en el que el altruismo eficaz es tal vez demasiado confiado, demasiado utilitarista, demasiado desinteresado y demasiado temerario en algunas ocasiones, mientras que en otras le importa demasiado su reputación.
Pero aunque todo tiene puntos débiles discutibles, ¿podría Nate hacerlo mejor en la práctica? Le preguntamos:
Rob y Nate también hablan de:
Productor y editor: Keiran Harris Ingeniería de audio: Ben Cordell, Milo McGuire, Simon Monsour y Dominic Armstrong Ingeniería de vídeo: Simon Monsour Transcripciones: Katy Moore
Rob Wiblin: Hablas de varias virtudes y vicios que el altruismo eficaz podría tener, o varias debilidades que podría tener. Quisiera saber, considerando todos los factores, si crees que haya otros grupos que sean mejores que Open Phil en filantropía, o que compitan con Open Phil en términos de su impacto por dólar. ¿O hay otros grupos que den mejores consejos o consejos igualmente buenos a los de 80 000 Horas sobre cómo hacer el bien con tu vida o tu carrera profesional?
Nate Silver: No es que yo… Sí, creo que probablemente haya una gran diferencia. Aunque, de nuevo, creo que la Fundación Gates. Fui a una cena que organizó Bill Gates. No fue oficial, así que no puedo compartir comentarios específicos, pero sí lo suficiente como para decir que son bastante rigurosos en lo que hacen. Y él está muy bien informado sobre los diferentes programas y su eficacia, relativamente hablando.
Pero sí, creo que es una victoria bastante amplia. Incluso si asumes que tal vez haya alguna reversión a la media frente al valor real de una mosquitera para la malaria frente al valor estimado, y tal vez estés haciendo suposiciones ligeramente favorables, la diferencia entre las mosquiteras para la malaria en África y donar al fondo patrimonial de Harvard tiene que ser como de 100 000 veces o algo así. De hecho, creo que incluso el fondo patrimonial de Harvard es probablemente desutilitario: creo que en realidad podría ser malo para la sociedad.
Entonces sí, creo que hay muchas oportunidades al alcance de la mano y victorias fáciles. Pero una de las características de ser un jugador o hacer cosas similares durante mucho tiempo es que creo que la gente no se da cuenta de la curva en la que solo hay tantas oportunidades al alcance de la mano, y luego se vuelve cada vez más difícil, y/o hay más competidores en el mercado, y entonces llegas rápidamente a la superficie donde persigues ventajas cada vez más pequeñas, y entonces los pequeños errores en tus modelos pueden significar que estás en territorio de valor esperado negativo.
Rob Wiblin: ¿Crees que la cultura del AE debería ser más libre y estar más dispuesta a decir cosas que cabreen a la gente y hagan enemigos, aunque no estén relacionadas con un tema central? En el libro parece que a veces piensas: ¡puede ser!
Nate Silver: En términos generales, sí. Creo que decir cosas que no son populares es a menudo un acto altruista. Y supongamos que no es peligroso. No sé qué se considera peligroso, pero expresar una idea impopular. O tal vez sea popular, pero hay una cascada en la que la gente no está dispuesta a decir algo que en realidad es bastante popular. Me parece admirable cuando la gente está dispuesta a arriesgarse a decir algo que otras personas no están dispuestas a decir.
Rob Wiblin: Creo que la razón por la que la cultura del AE suele oponerse a eso, aunque no siempre, es simplemente el deseo de centrarse en los problemas más graves. Decimos que lo que realmente importa es la IA, la regulación de las tecnologías emergentes, la pobreza, el trato a los animales criados en granjas intensivas.
Y respecto a otras cosas que son muy controvertidas y podrían molestar a la gente, creo que los AE serían más propensos a decir: “Esas son distracciones que nos van a costar credibilidad. ¿Qué ganamos realmente con eso si no es una creencia controvertida sobre un problema central y supergrave?”. ¿Estás de acuerdo con eso?
Nate Silver: Es justo por eso que ahora estoy más convencido de dividir el altruismo eficaz en los equipos naranja, azul, amarillo, verde y morado. Quizá lo que más le importa al equipo morado es maximizar la filantropía y también le interesan mucho las relaciones públicas. El equipo rojo está un poco más influenciado por el racionalismo y considera la libertad de expresión como una causa fundamental, y cosas por el estilo. Creo que es difícil tener un movimiento donde se mezclen estas seis o siete influencias intelectuales, porque hace 10 o 15 años la gente se reunía para tomar un café o creció en internet (en una era más libre de internet). Creo que hay similitudes, pero englobarlo todo dentro de un mismo marco empieza a parecer un poco forzado.
Rob Wiblin: Sí, creo que esa era la opinión que tenían algunas personas hace 15 años, tal vez: que esto es demasiado grande, que es demasiado como para intentar englobarlo en un solo término de “altruismo eficaz”. Quizá desearía que se hubieran dividido en grupos diferenciados. Eso podría haber sido más robusto y también habría sido menos confuso para el público. Porque tal y como están las cosas, se están metiendo tantas cosas en estas etiquetas de altruismo eficaz o racionalidad que puede resultar muy confuso desde fuera, porque piensas: “¿Son estos los de la pobreza o los de la IA? Son muy diferentes”.
Nate Silver: Sí. Creo que, en general, cuanto más pequeño y diferenciado, mejor. No sé si es una especie de equilibrio a largo plazo, pero, de hecho, a la larga se crean más países en el mundo, y no menos, por ejemplo.
Y en un principio iba a haber más cosas sobre la pandemia de COVID en el libro, pero nadie quiere seguir hablando de eso, cuatro años después, pero durante la pandemia todas las grandes democracias multiétnicas —especialmente Estados Unidos, Reino Unido, India y Brasil— tuvieron grandes dificultades. Mientras que los suecos o los neozelandeses o los israelíes o Taiwán pudieron ser más ágiles y gozaron de una mayor confianza social. Eso pareció funcionar bastante mejor.
Así que tal vez estamos en un universo en el que lo mediano es malo. Hay que ser muy grande o muy pequeño.
Nate Silver: Sí, las soluciones intermedias resultaron ser las peores, que es donde terminaron muchas de las democracias multipartidistas. En el póquer, es la estrategia de subir la apuesta o retirarse: a menudo, en el equilibrio de la teoría de juegos en el póquer, quieres subir la apuesta o retirarte, pero no igualar.
Así que o quieres hacer como Suecia y decir: “Nunca vamos a tener una tasa de contagio por debajo de 1, así que hagamos más cosas al aire libre y protejamos a los ancianos. Pero mucha gente va a morir”. O haces como Nueva Zelanda: “Afortunadamente, somos un país insular en el Pacífico Sur, y todavía no tenemos casos. Simplemente cerremos la frontera durante dos años”. Y esas estrategias extremas son más eficaces que ir saliendo del paso, en mi opinión.
Rob Wiblin: Entonces, dirías que sufrimos enormes costos sociales. El bienestar de las personas se redujo mucho. Y al mismo tiempo, para cuando llegaron las vacunas, la mitad de las personas ya habían estado expuestas, por lo que ya habíamos asumido la mitad de los costos, aproximadamente. Tal vez no tanto, porque logramos extender la curva.
Nate Silver: El modelo R=1 se complica cuando hay reinfección. Empiezas a introducir más parámetros cuando hay cierta duración de la inmunidad a la enfermedad, aunque es evidente que los resultados graves disminuyen. Va a haber personas con COVID largo que se van a enojar conmigo. Es claro que la carga total de la enfermedad va a disminuir, y es probable que la gente esté infectada todo el tiempo y ni siquiera lo sepa.
Hay una larga historia de… se cree que algunas gripes en realidad eran quizás condiciones similares al COVID que ahora están en segundo plano y no son particularmente importantes. Y el hecho de que el debate sobre la “inmunidad de rebaño” se estigmatizara tanto fue una de las muchas cosas que me molestaron de las discusiones sobre la pandemia.
Nate Silver: Las 13 llaves son un sistema de Allan Lichtman, que es profesor de Gobierno, no sé si es profesor emérito, ahora está jubilado, en la American University de Washington, D. C., que creo que es un ejemplo de la crisis de replicación y la ciencia basura.
Un problema que tienes en la pronosticación de elecciones que es inevitable es que tienes una pequeña muestra de elecciones desde que las elecciones estadounidenses comenzaron a votar en el voto popular en 1860. Antes de eso, las legislaturas estatales nombraban a los candidatos. Es un tamaño de muestra de unas cuantas docenas, que no es tan grande. Y para la pronosticación electoral moderna, el primer tipo de sondeo científico se realizó aproximadamente en 1936, y fue muy malo, por cierto, al principio. Hay una elección cada cuatro años, por lo que tienes una muestra de 22 o algo así.
Así que cuando tienes un tamaño de muestra pequeño y muchos resultados posibles, tienes un problema potencial que la gente podría conocer llamado “sobreajuste”, que es que no tienes suficientes datos para ajustar un modelo multiparamétrico. Y hay diferentes formas de evitarlo; no sé si queremos entrar en la técnica de modelización per se. Pero las llaves de la Casa Blanca es un sistema que afirma predecir perfectamente todas las elecciones presidenciales desde el siglo XIX basándose en 13 variables.
Hay un par de problemas cuando intentas aplicar esto, de cara al futuro. Uno es que muchas de las variables son subjetivas. Entonces: ¿Hay algún logro significativo del presidente en política exterior? ¿Es carismático el oponente? Estas son cosas que, si ya sabes la respuesta, puedes sobreajustar y hacer una especie de manipulación del valor p para decir: “Ahora podemos predecir perfectamente todas las elecciones”, cuando ya sabemos la respuesta. No es tan difícil “predecir” correctamente cuando el resultado ya se conoce.
Así que cuando las elecciones avancen, Allan Lichtman emitirá su predicción. Pero no es obvio. Tienes que esperar a que suba al escenario, o que aparezca en YouTube ahora, y diga: “Esto es lo que predigo aquí, basándome en mi juicio”. Así que es una cuestión de juicio sobre muchos de estos factores.
Además, ha mentido en el pasado sobre si estaba tratando de predecir el voto del Colegio Electoral o el voto popular, y cambiaba de opinión según lo que fuera correcto o incorrecto. Pero es un buen vendedor; toma un sistema que es una especie de erudición con alguna ventaja cualitativa o cuantitativa mínima, y trata de hacer que parezca algo más riguroso de lo que es.
Rob Wiblin: Entonces, tiene 13 factores diferentes. Hay tantas cosas que son una locura en esto. Ni siquiera necesitas mirar los datos empíricos para decir que esto es ciencia basura y una locura total. Así que tiene 13 factores que supongo que ha sacado de… O sea, en la era moderna, solo hay como una docena, como mucho dos docenas de elecciones en las que podrías pensar, y vamos a decir que ahora es todo igual que en el siglo XIX. Eso parece una locura.
Así que tiene 13 factores diferentes. Casi todos ellos vienen en un continuo. Un candidato puede ser más o menos carismático; no es solo uno o cero, pero reduce todo a que el candidato es carismático o no lo es; o la economía es buena, la economía es mala, así que descarta casi toda esta información. Tiene tantos factores, a pesar de que casi no tiene datos para decir cuáles de estos entran. No lo ha cambiado, creo, desde 1980 o algo así, cuando lo inventaron.
Nate Silver: Sí. Y dice, por ejemplo, que Donald Trump no es carismático. Por cierto, es un demócrata liberal. Y, bueno, no soy fan de Donald Trump, pero, literalmente, presentó un reality show. Era presentador de un concurso. Creo que hay un cierto tipo de carisma que se transmite con eso. Y eso es lo único que probablemente sí tiene, que es carismático. Quizás no de la manera que le gustaría a un demócrata, pero es un tipo divertido. Es un hombre espectáculo, literalmente. Así que no sé cómo no le darías esa llave, por ejemplo.
Rob Wiblin: Sí. Le pedí a Claude que hiciera un breve resumen del artículo y algunos de los puntos que extrajo fueron:
Las elecciones presidenciales son eventos poco frecuentes. Ocurren solo cada cuatro años. Esto proporciona muy pocos puntos de datos para evaluar los métodos de pronosticación. Los autores demuestran a través de simulaciones que se necesitarían 24 ciclos electorales, o 96 años, para mostrar con una confianza del 95 % que un pronosticador con una precisión del 75 % fue mejor que las conjeturas aleatorias, y que comparar el desempeño de pronosticadores rivales con niveles de precisión similares podría llevar miles de años.
¿Qué opinas de eso?
Nate Silver: Pues les propongo una apuesta. Si creen que no es mejor que el azar, me doy por satisfecho. O sea, ahora mismo, nuestro modelo —estamos grabando esto a principios de septiembre, para que quede claro— está cerca del 50/50. De modo que si creen que eso no es mejor que lanzar una moneda al aire, entonces estoy dispuesto a hacer una apuesta considerable con estos académicos. Porque, mira… ¿Puedo decir palabrotas en este programa?
Rob Wiblin: Claro.
Nate Silver: Es como, vale, tienes un evento que se celebra cada cuatro años. Conseguir una muestra estadísticamente significativa llevará mucho tiempo. Obviamente. No tienes que desperdiciar un espacio en una revista académica con esta observación increíblemente banal y obvia.
Pero yo diría un par de cosas. Una es que cuando realmente tienes un tamaño de muestra que no se limita a las elecciones presidenciales, sino que también incluye las primarias presidenciales y las elecciones intermedias… en las elecciones intermedias, hay aproximadamente 500 candidaturas al Congreso cada año. Por supuesto, están correlacionadas, lo que hace que esto sea bastante complicado a nivel estructural, pero los datos son un poco más robustos de lo que se podría decir.
Pero también, están un poco atrapados en esto… Lo considero el paradigma de la crisis de replicación… alcanzas un número mágico cuando es del 95 %, y entonces es verdadero en lugar de falso. Y eso simplemente no… O sea, soy un bayesiano, ¿no? No pienso de esa manera.
Uno de los autores del artículo decía que, basándose en una sola elección, no se puede saber si… Así que en 2016, los modelos tenían a Trump con una probabilidad de entre el 29 % —ese era un modelo de FiveThirtyEight— y menos del 1 %, digamos el 0,1 %. Y dijeron que realmente no se puede saber con certeza qué modelo es correcto o incorrecto a partir de una sola elección. Y, de hecho, no es cierto si aplicas el teorema de Bayes, y tienes una probabilidad del 0,1 % de que ocurra en un modelo que nunca se ha publicado antes, y es incorrecto. Las probabilidades de que ese modelo sea inferior son apabullantes, basándonos en ese tamaño de muestra de uno, frente al modelo del 29 %.
Así que, para mí, indica cierto tipo de pensamiento académico rígido, que no es lo suficientemente rápido para lidiar con el mundo moderno. En el mundo moderno, para cuando demuestras algo conforme a un estándar académico, el mercado ya lo ha valorado. La ventaja que podrías obtener de eso ya se ha materializado.
Es interesante ver el altruismo eficaz, que surge del mundo académico, pero entiende que se están produciendo debates rápidamente en la esfera pública, en los foros de AE, por ejemplo. Y creen firmemente en tener presencia en los medios de comunicación. Y esa parte me gusta: que la velocidad del mundo académico no es realmente adecuada para el mundo actual.
Rob Wiblin: Sí. Supongo que los autores de este artículo no querrían decir que tu modelo no es mejor que lanzar una moneda al aire. Supongo que lo que dicen es que, suponiendo que hubiera dos modelos que fueran igualmente buenos —tu modelo y otro que fuera un poco diferente, que diera un poco más de peso a los fundamentos frente a las encuestas o algo así— y que le diera a Trump una probabilidad del 27 % cuando tú le dabas una del 29 %. Sería difícil distinguir empíricamente cuál de los dos es mejor, por lo que tal vez tengas que recurrir a la teoría, y eso no será realmente decisivo. ¿Qué opinas de eso?
Nate Silver: Me inquieta un poco porque somos los únicos… El legado de los modelos de FiveThirtyEight, y ahora de Silver Bulletin, es un caso bastante inusual de tener pronósticos de dominio público donde hay un historial completo de cada pronóstico que hemos hecho, tanto en política como en deportes, desde 2008. Y están muy bien calibrados: nuestras probabilidades del 20 % se dan el 20 % de las veces. Consigues un tamaño de muestra mucho mayor con los deportes que con las elecciones.
Pero sí, se trata de esta abstracción de que básicamente ningún otro modelo en este espacio tiene un historial de más de una elección. Y también tenemos primarias presidenciales y cosas así; ya hay un historial bastante largo.
Y creo que los académicos interesados en el discurso público apreciarían más lo difícil que es hacer pronósticos reales cuando te expones a condiciones de incertidumbre y los publicas para que puedan ser examinados y observados, comparado con comprobar un modelo de manera retrospectiva.
Y mira, creo que probablemente hay cierto grado de envidia, donde… La hay, ¿no? Tomas estas ideas y las popularizas y tienes una audiencia bastante grande. Pero también estoy tomando riesgos cada vez que hago un pronóstico. Hemos hecho pronósticos de 70/30 que se han considerado erróneos, y estás asumiendo un riesgo para tu reputación. Así que no sé.
Rob Wiblin: Algo que dices en el libro que me sorprendió es que los inversionistas de capital de riesgo hablan mucho de asumir riesgos y revolucionar el mundo y cambiarlo todo y estar dispuestos a ponerlo todo patas arriba, pero en realidad crees que no asumen tanto riesgo. ¿Por qué?
Nate Silver: ¿Te gusta el básquetbol o los deportes en general?
Rob Wiblin: A veces el fútbol.
Nate Silver: En los deportes estadounidenses, tenemos el draft, que es un mecanismo para darle al peor equipo más igualdad competitiva a largo plazo. Si eres el peor equipo, te toca la primera elección. Por lo tanto, te llevas al mejor jugador.
Para las principales empresas de Silicon Valley, es casi lo contrario, ¿no? Si eres Andreessen Horowitz o Founders Fund o Sequoia, y tienes mucho éxito, entonces te toca la primera elección del draft: el próximo fundador que venga de Irlanda o Sri Lanka o de cualquier otro lugar querrá trabajar con esta empresa que tiene mayores efectos de red.
Marc Andreessen incluso me dijo que su éxito es una especie de profecía autocumplida: tienen acceso a los mejores fundadores de todo el mundo; el valor esperado de cualquier apuesta es bastante alto. Y sí, hay una gran varianza, pero de hecho me dio algunos datos. Y si haces los cálculos, casi todos los fondos que hacen van a ganar algo de dinero. El riesgo de perderlo todo es en realidad muy muy bajo.
Rob Wiblin: ¿Porque están diversificados en cientos de diferentes…?
Nate Silver: Diversificados. Tienes un fondo que tiene 20 empresas al año. Y, por cierto, no es cierto que sea totalmente impredecible. Hay muchos casos de 1x y 2x, o incluso se recupera la mitad del dinero. Eso ayuda bastante a largo plazo. Así que es un negocio muy sólido en el que tienen garantizado obtener ganancias realmente buenas cada año. Mira, creo que muchos de ellos son tipos de personalidad arriesgada, pero tienen un negocio que es casi demasiado bueno para fracasar.
Mientras que un fundador puede estar haciendo una apuesta que en principio es de valor esperado positivo, puede que su vida no sea tan buena la mayor parte del tiempo. Comprometerse con una idea que tiene un horizonte temporal de 10 años que resulta ser un completo fracaso algunas veces, se traduce en una salida moderada después de mucho esfuerzo la mayoría de las veces, y tiene una probabilidad de 1 entre 1 000 de que te conviertas en el próximo Mark Zuckerberg, o de 1 entre 10 000: no es tan obvio que sea un buen negocio, dependiendo del grado de aversión al riesgo que tengas. Y tienes que tener cierta predisposición a asumir riesgos, o ignorancia del riesgo, como yo lo llamo, para fundar una empresa en un área que no ha logrado tener éxito en el mercado y que tiene un horizonte temporal muy largo.
Expandir los momentos destacados
El trabajo de Nate:
Sam Bankman-Fried y Sam Altman:
Pronosticación:
Otros episodios del pódcast de 80 000 Horas:
Nate Silver: La gente piensa en el tilt como lo que sucede, y a menudo es así, cuando estás en una racha perdedora o pierdes la jugada a pesar de tener una buena mano. Y puedes tener diferentes reacciones: puedes intentar recuperar tus pérdidas, o a menudo la gente se vuelve demasiado indecisa y muestra aversión al riesgo.
Pero el tilt de los ganadores puede ser igual de negativo, ¿no? Si haces un par de apuestas seguidas que salen bien, sobre todo si son apuestas a contracorriente, como en el caso de Elon Musk o Peter Thiel, por ejemplo… si haces un par de apuestas a contracorriente y salen bien, es realmente satisfactorio obtener un rédito económico. Demostrarles a todos que estaban equivocados da mucho placer. Y si consigues ambas cosas a la vez, es como un cóctel de drogas, en serio. Produce un efecto tremendo.
Y si haces eso dos veces, si haces un par de apuestas que dan resultado, es muy difícil superar eso. Y si te sale mal, vuelves a intentarlo buscando la euforia que sentiste cuando funcionó. Es difícil bajarse de esa montaña rusa, creo. Creo que la retroalimentación inmediata y ludificada se convierte en un catalizador, especialmente a través de Twitter, que creo que parece volver un poco locas a ciertas personas, tal vez incluso al fundador o propietario de Twitter.
Rob Wiblin: Hola a todos, soy Rob Wiblin.
Hoy hablaremos con el autor y pronosticador electoral Nate Silver sobre:
La conversación gira en torno al nuevo libro de Nate, On the Edge, donde expone un choque cultural de las élites que considera clave para entender la época en la que vivimos:
Nate cree que “el Río” ha ido ganando influencia a expensas de “el Pueblo”, lo que ha tenido una mezcla de efectos buenos y malos —en su opinión y en la mía, en su mayoría buenos— y ha llevado a ambos a enfrentarse en un conflicto abierto.
Nos ceñimos principalmente a temas que Nate no ha tratado ya en otros lugares, así que si quieres escuchar esa historia tendrás que conseguir su libro, On the Edge.
Muy bien, sin más preámbulos, aquí está Nate Silver.
Rob Wiblin: Hoy hablaremos con Nate Silver. Nate, como imagino que la mayoría de los oyentes sabrán, es el creador del sitio web y sistema de pronosticación electoral FiveThirtyEight, que imagino que mucha gente como yo ha actualizado compulsivamente a lo largo de los muchos años que lleva funcionando. Creo que empecé a consultarlo en 2007, durante las elecciones entre Obama y McCain. A lo largo de los años me has producido una mezcla de tranquilidad y ansiedad. Pero ya has vendido FiveThirtyEight y ahora publicas tu modelo electoral a través del Silver Bulletin en Substack, donde la gente puede consultarlo.
Pero hoy estamos aquí charlando porque has escrito este libro On the Edge: The Art of Risking Everything, que habla, por un lado, de las apuestas, las apuestas deportivas, el póquer, ese tipo de cosas; y luego, en la segunda mitad, pasas al altruismo eficaz, el racionalismo, el riesgo existencial, la IA, ese tipo de cosas. Y supongo que de Sam Bankman-Fried, con quien hablaste bastante después de su debacle.
Así que vamos a hablar de un montón de esos temas a lo largo de la conversación. Muchas gracias por venir al programa.
Nate Silver: Por nada. Siempre me alegra participar en un programa que sí escucho.
Rob Wiblin: Hablemos un poco del altruismo eficaz. Es a lo que quiero dedicarle más tiempo, porque creo que no te han preguntado tanto sobre este tema en otras entrevistas. Has tenido entrevistas con bastantes personas vinculadas con la comunidad de la racionalidad y con la comunidad del altruismo eficaz. Y considero que intentas representarnos fielmente, ser justo y señalar las cosas buenas, pero al mismo tiempo no tienes pelos en la lengua y también hablas de los diferentes aspectos que la gente ha criticado del movimiento, tal vez con razón.
Me interesa mucho saber un poco más acerca de las decisiones y concesiones difíciles que se presentan cuando estás creando algo: ¿Te involucrarás más o menos en la política? ¿Es momento de ser más pródigo o más austero? Por lo general, hay variables contrapuestas. Y no importa si tienes una postura bien definida hacia un lado u otro, o si buscas un equilibrio, es probable que te critiquen de ambos bandos.
Por eso me intriga conocer tu opinión acerca de qué podríamos mejorar en la práctica. No me refiero solo a conocer cuáles son los posibles puntos débiles, sino qué rumbos diferentes se podrían tomar. Por ejemplo, ¿qué hubieras hecho de otra manera en 2011, si hubieras formado parte del grupo que inició todo?
Nate Silver: Lo curioso es que el libro trata sobre un tipo de persona muy analítica y nerd, y buena en cosas como el desacoplamiento, que es separar el contexto de algo, que tiende a cuantificar las cosas, incluso las que son difíciles de cuantificar.
Este rasgo es común en los jugadores de póquer, las personas que apuestan en deportes, las personas que trabajan en capital de riesgo hasta cierto punto —es un conjunto de habilidades ligeramente distinto, pero bastante parecido— y los altruistas eficaces. Pero en todos los demás campos se compite según parámetros con los que medirse, supongo, y existe un incentivo para ser preciso, que a menudo es un incentivo económico o relacionado con la carrera profesional.
Supongo que lo paradójico del libro es que uno podría pensar que los AE son realmente desinteresados; yo creo que lo son. Creo que en la mayoría de los casos son literalmente altruistas. Y creo que tienen buenas intenciones y que son personas muy inteligentes. Lo que sucedió es que, a raíz del altruismo eficaz o ideas relacionadas, aparecieron todos estos multimillonarios que donan gran parte de su patrimonio neto y al menos se esfuerzan por donar bien ese dinero… No sé si Bill Gates se autodenominaría “altruista eficaz”, pero claramente defiende algunas de las mismas posturas y es muy estricto al respecto. Y eso tiene un gran impacto positivo en el mundo.
Pero lo contradictorio es que, al no estar arriesgando tanto, creo que a veces los AE no aprenden lo suficiente sobre las limitaciones de los modelos, por así decirlo, y también pueden ser —como en el caso de SBF— demasiado confiados. En el mundo del póquer supongo que aprendemos a tener una buena dosis de desconfianza.
Rob Wiblin: Sí. En cuanto a la confianza, creo que citas a alguien en el libro que dice “en 2022, el altruismo eficaz parecía la burbuja de confianza más grande del mundo”. ¿Consideras que esa burbuja estalló con el impacto suficiente? Yo creo que nos hemos vuelto menos confiados. ¿Nuestro nivel actual de confianza es el que corresponde?
Nate Silver: Sí, tal vez sea el nivel justo. Esto lo dijo Oliver Habryka, creo, que en cierta forma es un altruista eficaz. Todo el mundo dice que está cerca del AE o del racionalismo. Sigue siendo un mundo bastante pequeño, si vas a la conferencia Manifest, por ejemplo, que probablemente diría que es un lugar más racionalista que el AE. Pero no es un grupo grande de gente. Se puede rastrear la mayor parte de la historia intelectual de estos movimientos analizando el perfil de 10 o 12 personas destacadas, lo cual no es poco, pero tampoco es mucho. Sí, creo que probablemente se confía demasiado y tal vez podría ser útil una mayor perspectiva externa dentro del movimiento.
Pero en realidad, parte de ello es una crítica al utilitarismo, especialmente al de Peter Singer, quizás la forma más estricta e “imparcial” de utilitarismo. Soy más partidario del utilitarismo de las reglas, por ejemplo. Es parte de la explicación.
En parte, creo que hay que aprender mucho sobre el caso de SBF. Scott Alexander y otras personas dijeron: “Bueno, ¿quién iba a saber que sería un fraude sin precedentes en esta generación?”. Pero si te dedicas a la evaluación de riesgos y no estás evaluando los riesgos internos de tu movimiento…
Y no estamos hablando de que liderara una red clandestina de prostitución, ¿verdad? En el fondo, era poco fiable en sus actividades principales, había muchos indicios. O sea, le dijo a Tyler Cowen, el gran economista y conductor de pódcast, que si pudiera presionar un botón para hacer que el mundo fuera dos veces mejor, con una probabilidad del 50 % de que explotara, presionaría ese botón una y otra vez. Yo no querría que alguien así fuera el principal donante, a la par de Dustin Moskovitz, ni tampoco me gustaría que fuera una fuente importante del financiamiento del AE. Con respecto a la forma en que fundó FTX y Alameda… nadie ahí estaba contento con él.
Así que creo que, dado que ese mundo es pequeño y él era una parte importante de ese mundo, hay que hacer muchos cambios a partir de su caso.
Rob Wiblin: Sí. Acerca de la cita sobre apostar a mejorar el mundo más del doble, con una probabilidad del 50 % de destruirlo: en el libro dices que mucha gente con formación en filosofía dice cosas así. Yo lo escuché y pensé: “Estas son declaraciones de un filósofo. Nadie haría algo así en la vida real”. Y creo que en la gran mayoría de los casos en los que la gente dice cosas así, un poco delirantes, se trata exactamente de eso: es gente hablando en un seminario de filosofía. Nunca pensé que Sam lo dijera en serio.
¿Cómo podemos saber si alguien está verdaderamente loco cuando hace experimentos mentales de ese tipo?
Nate Silver: Hablé con Sam y tienes razón. Quiero decir, definitivamente hay gente provocadora o trols en este espacio, o que plantean experimentos mentales, pero no lo dejan en claro. Incluso el escenario del clip de Nick Bostrom a veces se toma demasiado literalmente. Es un experimento mental que es un poco irreverente y divertido… Aunque el resultado no sería gracioso, obviamente.
Mira, creo que Sam se tomó esto relativamente en serio. Nunca cambió su postura. Hablé con Sam unas cinco o seis veces, antes, durante y después de la quiebra, y siempre decía más o menos que si no asumes el riesgo suficiente como para destruirte literalmente a ti mismo, entonces no estás maximizando lo suficiente el valor esperado.
No creo que me meta en esto del criterio de Kelly, que es una fórmula de apuestas deportivas, pero él está dispuesto… Básicamente, lo “racional” es maximizar el retorno esperado con la condición de que no acabes en la ruina, de que el riesgo de quiebra sea muy bajo. Podemos decir que Elon Musk asume riesgos porque compró Twitter/X por 50 mil millones de dólares, pero a menos que haya demandas de accionistas que se salgan de control, no hay riesgo de quiebra, es decir, Elon Musk no corre un riesgo existencial si el haber comprado Twitter resulta ser una mala decisión financiera.
Por otro lado, Sam realmente pensaba que si no maximizas tus posibilidades de convertirte en el primer billonario del mundo o en el primer presidente estadounidense autista, entonces no estás arriesgando lo suficiente. Así que creo que hay cierto grado de patología.
Rob Wiblin: Nunca creí que Sam realmente lo dijera en serio. Y la razón era que, obviamente, hablaba de lo mucho que le preocupaba el riesgo existencial, la IA, este tipo de causas relativamente específicas. Obviamente, si tienes mil millones de dólares, puedes financiar muchas de las cosas que te importan dentro de ese ámbito. Si tienes 10 mil millones de dólares, te será todavía más difícil encontrar otras causas que financiar. Hay una enorme disminución de los beneficios si te enfocas en estos problemas.
¿Por qué se arriesgaría a arruinarse a él mismo y a todos los que lo rodeaban para conseguir un billón de dólares, cuando ni siquiera estaba claro en qué gastaría ese dinero? No tenía sentido. Así que supuse que solo estaba hablando por hablar, diciendo: “Deberíamos arriesgarnos un poco más de lo que suele hacerse”.
¿Qué estaba pasando? ¿Era un idiota en algún nivel que no veíamos? No lo entiendo.
Nate Silver: O sea, tomó varios riesgos equivocados, ¿no? Me refiero a las decisiones que tomó. Por ejemplo, durante su juicio, si testificar o no. La fuente con la que hablé después, una fuente nombrada en el libro, un abogado especializado en criptomonedas, dijo: “El gobierno lo tenía atrapado. El testimonio de Caroline Ellison es extremadamente persuasivo. A Sam lo descubrieron mintiendo varias veces, y también contradiciéndose en cosas que me dijo, vale aclarar. No es un acusado que genere mucha empatía. Todo lo que conseguiría con el juicio sería hacer enojar al juez, que es un juez muy estricto, y al jurado, y conseguir una sentencia más larga”.
Y eso fue exactamente lo que hizo. Su insistencia en subir al banquillo de los testigos probablemente le haya costado, en espera de la apelación, entre 10 y 15 años más de prisión. Hablé con él en Palo Alto cuatro o cinco meses antes del juicio y le dije: “¿Y si te ofrecen un acuerdo de dos años? Dos años y un tirón de orejas. Después de eso, probablemente no puedas volver a estar involucrado en criptomonedas, pero son solo dos años. Luego puedes conseguir algo de dinero y empezar una nueva empresa emergente”. Y su respuesta fue que tendría que pensarlo.
Rob Wiblin: No había nada que pensar.
Nate Silver: Creo que no es muy bueno evaluando riesgos, o que tiene algún tipo de tendencia destructiva. También creo, y esto es un poco más especulativo, que Sam es alguien que dice que tiene Asperger, o que está en el espectro, y, sin embargo, fue empujado a un entorno en el que socializaba mucho y era una especie de gran figura pública.
Hay algunos jugadores de póquer que son ejemplos de esto, que también se autodiagnostican como personas con autismo o con Asperger y que, en esencia, adoptan un personaje. “Si puedo representar una personalidad o un personaje…”. Es casi como lo haría un modelo de lenguaje a gran escala, ¿no? Es como si el LLM pudiera adoptar la personalidad de un irlandés que se ha tomado demasiadas pintas de Guinness o algo así. Y les termina resultando más fácil hacer eso que tener su propia personalidad independiente.
Creo que a veces la gente que está en el espectro hace eso y en algún momento se olvidan de que están actuando, y la toman como su propia personalidad. Y se convierte en una especie de presentación o rutina de la que no son conscientes, o… No sé. He hablado con Sam más que muchas otras personas, pero tendrías que preguntarles a sus padres.
Rob Wiblin: Entonces lo del autismo podría ser un factor. Pero creo que existe otro arquetipo, el de gente que es muy inteligente y que, al principio, tiene buen juicio para algunas cosas. Pero luego tienen mucho éxito. De pronto, todo lo que hacen les sale bien. Tal vez sea una combinación de habilidad y suerte. Se meten a Twitter y publican todo el tiempo, y parece que empiezan a perder el juicio y a lanzar ataques contra todo.
Nate Silver: Es muy difícil, porque he estado un par de veces en una situación parecida… No al nivel de Sam, pero lo suficiente como para que hubiera momentos después de las elecciones de 2012 en los que andaba por Nueva York y probablemente más de la mitad de las veces iba a por un café o algo, y me reconocían en público.
No es algo que me agrade en particular, aclaro, pero soy consciente de que, a medida que tu fama va y viene, la gente se vuelve mucho más aduladora, tienes muchas más oportunidades. Ser una especie de celebridad tiene un atractivo extraño: te vuelves un poco distante, o puedes distanciarte de la persona que realmente eres, porque en cierto sentido la idea de la celebridad es un objeto que existe fuera de ti. Eso es lo que es la celebridad: esta idea de Sam Bankman-Fried o Nate Silver o… No sé quién más es una celebridad. No sé si Eliezer Yudkowski es una celebridad, pero sin duda es digno de memes.
Es una experiencia muy extraña, especialmente si tienes alguna neurodivergencia o neurodiversidad, supongo. Y sí, no es sorprendente que algo así le haya sucedido.
Otra de las cosas de las que también hablamos en el libro, sobre todo en el contexto del póquer, pero que también le pasa a la gente de Wall Street: cuando estás en una racha ganadora, tu cuerpo tiene reacciones químicas ¿cierto? Liberas muchas endorfinas. Probablemente tengas más testosterona y cosas así. Así que el que la gente parece incapaz de evitar estas parábolas que parecen tan predecibles —de estar en una racha ganadora, volverse arrogante y actuar impulsivamente— es prácticamente pura química.
Rob Wiblin: Me resulta bastante inquietante, porque creo que se puede observar que muchas de las personas más poderosas, las personas más influyentes de la sociedad, en algún momento se encuentran en la cima de su carrera profesional después de una larga racha de éxitos insólitos que las llevaron a donde están ahora. Y de alguna manera entran en ese estado de confusión emocional y mental del tilt, se sienten omnipotentes en ese momento, o sienten que nada puede salirles mal, que su juicio es muy bueno. Empiezan a correr riesgos cada vez mayores y acaban afectando a todas las personas que los rodean con este tipo de juicio distorsionado.
Nate Silver: Sí. La gente piensa en el tilt del póquer —que es jugar de una manera tan emocional que te cuesta el valor esperado, básicamente—. La gente piensa en el tilt como lo que sucede, y a menudo es así, cuando estás en una racha perdedora o pierdes la jugada a pesar de tener una buena mano. Y puedes tener diferentes reacciones: puedes intentar recuperar tus pérdidas, o a menudo la gente se vuelve demasiado indecisa y muestra aversión al riesgo, cuando lo que tienes que hacer es ser agresivo en la mayoría de las formas de póquer.
Pero el tilt de los ganadores puede ser igual de negativo. Cuando puedes decirte a ti mismo de antemano que, si hay 10 000 participantes en la serie mundial de póquer y eres el mejor jugador del mundo, tus posibilidades de ganar la serie mundial son probablemente de una entre 1000. Así que tienes un retorno de 10x, que en realidad es muy bueno. Pero no hay que olvidar que el factor suerte sigue siendo enorme.
Y si haces un par de apuestas seguidas que salen bien, sobre todo si son apuestas a contracorriente, como en el caso de Elon Musk o a Peter Thiel, por ejemplo… si haces un par de apuestas a contracorriente y salen bien, es realmente satisfactorio obtener un rédito económico. Demostrarles a todos que estaban equivocados da mucho placer. Y si consigues ambas cosas a la vez, es como…
Rob Wiblin: Es una droga increíble.
Nate Silver: Es como un cóctel de drogas, en serio. Produce un efecto tremendo. Y si haces eso dos veces, si haces un par de apuestas que dan resultado, es muy difícil superar eso. Y si te sale mal, vuelves a intentarlo buscando la euforia que sentiste cuando funcionó. Es difícil bajarse de esa montaña rusa, creo.
Rob Wiblin: Sí, no sé muy bien cómo solucionarlo, pero creo que es un problema profundo y sistémico. Supongo que probablemente ha sido el caso en todas las sociedades en cualquier momento de la historia en que se han producido desastres.
Nate Silver: Sí. Pero creo que también existen puntos focales en la sociedad actual donde obtenemos una respuesta instantánea a lo que hacemos, donde las cosas se cuantifican en las redes sociales. Si publicas un libro, puedes actualizar la página de Amazon y ver cuál es tu clasificación o ver la última reseña: una reseña de dos estrellas de una persona en Des Moines, Iowa. Que se vaya al infierno. Y cosas así. Creo que la retroalimentación inmediata y ludificada se convierte en un catalizador, especialmente a través de Twitter, que creo que parece volver un poco locas a ciertas personas, tal vez incluso al fundador o propietario de Twitter.
Rob Wiblin: Hablemos un momento del valor esperado. Creo que hacer cálculos de valor esperado o pensar en el valor esperado (asignar probabilidades, asignar beneficios y costos a las cosas y luego sopesarlos todos) es quizás el rasgo más distintivo de esta tendencia de “el Río” de la que hablas en el libro. Es casi lo que mayormente lo define.
Creo que también es lo que quizás sea más característico de Sam Bankman-Fried. Esto ha aparecido en muchos libros, donde parece que siempre piensa en términos de valor esperado. Supongo que Michael Lewis realmente lo enfatiza. Incluso a Michael Lewis, como periodista financiero, le pareció un poco extremo.
¿Qué debemos deducir de esto? ¿Debería el valor esperado sufrir un gran revés por el interés de Sam Bankman-Fried?
Nate Silver: De nuevo, creo que en realidad era un pésimo maximizador del valor esperado. Una cosa que se aprende del póquer y de la teoría de juegos del póquer es que a menudo eres indiferente entre una o más soluciones. Y luego, a menudo, en equilibrio, las diferencias de valor esperado son bastante reducidas.
La gente se devana los sesos pensando: “¿A qué restaurante debería ir?” o “¿Cómo planifico mi itinerario de vuelo?”. Y probablemente, en situaciones en las que hay competencia, no hay mucha diferencia. Así que creo que a veces puede ser útil dedicar menos tiempo a esos problemas y elegir al azar. Creo que a veces la gente tiene un sesgo en contra de las cosas que se pueden cuantificar frente a las que no, pero aun así las valoran bastante.
Eso fue un problema en la pandemia de COVID, por ejemplo: veíamos en los textos de las noticias, en la BBC o en CNN, que el número de casos o muertes por COVID en una zona determinada iba en aumento. No hay ningún texto para la desutilidad de ser infeliz por falta de compromiso social o la pérdida de valor esperado en el futuro por la pérdida de años de educación o cosas así.
Creo que hay que evitar esos sesgos y basarse más en el “sentido común”. Creo que muchas cosas que consideramos irracionales son probablemente racionales en alguna versión ligeramente modificada de la racionalidad. Y a menudo, creo que a medida que vas avanzando en la vida, te das cuenta de que… Parece bastante común que este comportamiento que pensábamos que era irracional, en realidad, ahora que tenemos mejores datos, era bastante inteligente.
Así que creo que hay que confiar un poco más en los mercados y darse cuenta de que los casos en los que la gente se comporta de forma persistentemente irracional no son raros, sino quizás más raros de lo que se podría suponer cuando se tiene menos experiencia. Supongo que simplemente hay que empezar a maximizar el valor esperado, respetar un poco más la preferencia declarada y la sabiduría del mercado.
Rob Wiblin: Estaba tratando de pensar en qué conclusiones sacar de que SBF esté tan obsesionado con el valor esperado y que esto aparentemente lo descarriló.
Se podría decir que el valor esperado es la forma equivocada, filosófica y teóricamente, de sopesar los costos y beneficios y las probabilidades. Pero no creo que quiera ir por ese camino.
Se podría decir que es bueno en teoría, pero malo en la práctica, porque los humanos somos muy malos haciéndolo, y tal vez no deberíamos usarlo en absoluto. Eso parece demasiado extremo.
Creo que más bien uno debería decir que eso debería ser un factor en tu toma de decisiones, pero que debe ir acompañado de controles de sentido común y heurísticos, y de lo que piensen otras personas. No tomarte al pie de la letra tus estimaciones de valor esperado, que supongo que es lo que la gente ha estado diciendo casi siempre.
Otra perspectiva sería que en realidad no es ninguna de esas cosas. El problema con Sam Bankman-Fried es que tenía los valores equivocados: en el cálculo del valor esperado debió haber sido ”… y luego básicamente me robo el dinero”. Y eso debería estar muy penalizado, porque deberías desvalorarlo. Y no lo hizo porque sus valores estaban mal, o al menos no son nuestros valores, así que, por supuesto, eso lo llevará a hacer cosas que nosotros evaluaríamos negativamente.
Nate Silver: Creo que también hay que preguntarse si tenía un impulso autodestructivo.
Rob Wiblin: Habla un poco más de eso, porque no he oído hablar mucho al respecto.
Nate Silver: Tara Mac Aulay, que también fue cofundadora de Alameda, y fue una de las muchas personas que dejaron Alameda antes de que Caroline Ellison se hiciera cargo, antes de FTX, porque pensaba que Sam se estaba comportando… Puedes leerlo en el libro; no quiero tergiversar sus palabras. Estamos en el Reino Unido, donde tienen leyes de difamación más estrictas.
Pero pensaba que SBF era un problema por varias razones. Y dijo que Sam le había confesado que la cárcel no le parecía tan mala, porque él tiene anhedonia, según su propio diagnóstico, la cual implica una falta de capacidad para procesar o sentir placer. Así que si no disfrutas de lo que la gente disfruta (ir de excursión con tus amigos o beber y comer o tener sexo, o cualquier otra cosa que la gente haga para divertirse, o practicar deportes o ir a un partido y ver deportes), si ninguna de esas cosas te produce alegría, entonces…
Rob Wiblin: Quizá simplemente te sientes muy desvinculado de tus decisiones.
Nate Silver: Te sientes muy desvinculado de tus decisiones, y no hay demasiadas consecuencias… No sé cómo te va, pero si prometes que en el cielo vas a tener todo este acceso a todas estas cosas —habrá todas estas vírgenes en el cielo, algo así— y no experimentas los placeres de la carne en la Tierra …
Creo que es una persona inusual. Yo lo diría así. E incluso entre los jugadores, se usa mucho el término “degen”, forma abreviada de “jugador degenerado”. Se usa como un término amistoso, ¿no? “Gané el torneo. No te preocupes. No me volví un total degen en el club”. O “Estuve de degen en las mesas de blackjack, pero devolví algo”. Y parece una muestra de valentía y una especie de honor en el juego. Pero creo que la línea entre la autodestrucción y la toma racional de riesgos suele ser muy delgada.
Rob Wiblin: Un tema que planteas muy directamente en el libro es lo parecidos que son Sam Bankman-Fried y Sam Altman, el CEO de OpenAI. Obviamente, uno de ellos fue CEO, uno de ellos es CEO. Ambos se llaman Sam. ¿Qué otras similitudes o paralelismos hay entre ellos?
Nate Silver: Yo diría que Sam A está familiarizado con el marco de valor esperado. Hablé con Sam A a mediados de 2022, que resultó ser un buen momento para hablar con él, porque es cuando se dan cuenta de cuánto están progresando GPT-3.5 y potencialmente GPT-4. Así que está guardando este secreto buenísimo, pero al mismo tiempo, no está tan centro de atención, así que está un poco más desprevenido.
Y la invocación explícita del pensamiento de valor esperado, donde dirá: “Sí, la verdad es que existe la posibilidad de que la IA vaya muy mal, y si está desalineada, podría incluso perjudicar gravemente, destruir, tener efectos catastróficos para la civilización. Pero creo que va a acabar con la pobreza global y a prolongar la vida humana y empujarnos a la siguiente frontera, por lo que vale la pena correr el riesgo”.
Ahora, no creo que tire la moneda al aire por un 50/50. Una fuente dijo que podría tirarla por un 90/10. Y ha dicho cosas que demuestran que no es un utilitarista estricto. Una cosa que dijo, creo que en una entrevista con The New Yorker, es: “Sí, valoro a mis amigos y a mi familia mucho más que a simples desconocidos”. No sé si él era consciente de lo que esto significaba para el AE, pero dijo algo así como: “Sí, mataría a 10 desconocidos para defender a mi familia”. Creo que eso hizo que confiara más en Sam A.
Pero el hecho es que tal vez sea el colectivo anónimo el que realmente dirige los laboratorios de IA de todos modos. Son los votos silenciosos de las personas que son los ingenieros que construyen estos modelos y podrían irse. Vimos lo que tal vez se denominó incorrectamente como el “golpe de estado de EA” contra Sam Altman. Creo que la cobertura de eso es más banal: que en realidad fue lo que parecía, que sonaba muy aburrido, pero que se trataba de una falta de transparencia y luchas internas y cosas así.
Aunque no sé. Iba a decir que vas a conseguir el equilibrio de la teoría de juegos en la IA, lo cual creo que es cierto, aunque, como tienes un número finito de jugadores, entonces es un poco menos obvio. Creo que probablemente las acciones individuales importan más cuando se trata de alguien como Sam Altman que en una competencia más abierta.
Rob Wiblin: Me parece que una de las distinciones que estás haciendo es que crees que Sam A está haciendo apuestas con un valor esperado más alto; y que SBF simplemente tuvo un mal juicio, y apostó mal, hizo cosas que tenían un valor esperado negativo. Mientras que Sam Altman tiene buen juicio, por lo que está haciendo apuestas con un valor esperado más positivo, y esa es la diferencia.
Claro que en realidad no es tanto una diferencia estructural profunda. Supongo que realmente importa, pero la situación sería potencialmente análoga en la disposición a asumir riesgos con el bienestar de otras personas.
Pero en realidad, cuando pensé en esto, me di cuenta de que creo que hay algunas diferencias estructurales bastante importantes. Una es que SBF engañaba a la gente haciéndole creer que su dinero estaba a salvo y que no estaba jugando con su dinero, con sus activos y con su bienestar. Fingía que no lo estaba haciendo. Mientras que Sam Altman, hay que reconocerlo, ha sido completamente honesto al decir que la IA podría matarnos a todos y que es extremadamente arriesgada. Y que lo que está haciendo OpenAI debería preocupar a otras personas, porque les afectará mucho y podría ser muy negativo.
Eso suena muy diferente, porque significa que otras personas podrían intervenir. La gente podría intentar regular OpenAI si no estuviera de acuerdo con los riesgos que está asumiendo. Mientras que es casi imposible intervenir si no te das cuenta de que algo así está sucediendo. ¿Estás de acuerdo en que es una diferencia importante?
Nate Silver: Sí. La gente, especialmente la que no está familiarizada con la IA, o tal vez la de izquierda en EE. UU., piensa: “Bueno, todo lo que dice lo dice para su propio beneficio”. Creo que eso malinterpreta un poco el comportamiento de esta tribu de nerds. En mi opinión, casi todos buscan la verdad.
Rob Wiblin: Sí, creo que lo dijo porque pensaba que era verdad. Y no sé, tal vez es una persona un poco más suelta, y por eso estaba dispuesto a decir lo que creía, aunque no le beneficiara.
Nate Silver: Sí, dice cosas en Twitter que son demasiado sinceras para el CEO de una empresa tan grande como OpenAI. Pero eso hace que confíe más en él en cierto modo, ¿no?
Rob Wiblin: Sí. Supongo que la otra disanalogía importante en la que pensé es que los clientes de SBF, cuyo dinero apostaba en secreto, no salían ganando si él hacía buenas inversiones. Él se llevaba todas las ganancias y ellos asumían todo el riesgo si bajaba de cero.
Por otro lado, con Sam Altman, no es así en absoluto. Es cierto que Sam Altman puede ganar personalmente de forma brutal y desproporcionada si OpenAI tiene éxito: tanto financieramente como en términos de reputación; sería una de las grandes figuras de la historia si las cosas van bien. Por otro lado, si la IA va bien, todo el mundo se beneficiará enormemente. Todos tenemos una enorme participación en el éxito de esta tecnología, por lo que hay un mayor equilibrio entre las ventajas y los riesgos. En este juego, todos nos jugamos algo similar.
Nate Silver: Creo que una de las cosas que aún no hemos mencionado sobre SBF es que no asignó rendimientos marginales decrecientes a la riqueza adicional, porque afirmó que iba a donarlo todo y/o porque tenía ambiciones tan locas —como, supongo, comprar la presidencia— que le importaban. Los primeros 100 mil millones de dólares son igual de buenos que los segundos 100 mil millones, ¿cierto?
Rob Wiblin: Lo cual es una locura desde cualquier punto de vista. Pero dejando eso a un lado…
Nate Silver: Sí. Objetivamente, Sam Altman va a tener todas sus necesidades materiales cubiertas el resto de su vida, aunque el gobierno cierre OpenAI. Bueno, no sé qué tipo de pasivos podría tener. Tal vez me retracte. Pero una vez que llegas a un nivel en el que tienes entre siete y ocho cifras en el banco, y puedes conseguir empleo fácilmente y tienes flujos de ingresos anualizados, entonces sí, multiplicas por 10 tu dinero y puede que aumentes tu utilidad personal unas 1,05 veces o algo así. Y puede que lo incrementes 100 veces y puedas comprar acciones en un equipo de básquet o algo por el estilo.
Una de las cosas de trabajar en este libro es que pasé mucho más tiempo con gente muy muy rica. Sus vidas no son realmente mucho mejores. Son un poco mejores. Tienen algunas cosas geniales, como casas realmente increíbles, pero también tienen más obligaciones y más gente a la que tienen que pagarle.
Rob Wiblin: Más gente fastidiándolos.
Nate Silver: Más gente fastidiándolos. En realidad, no es que haya un gran aumento de utilidad, necesariamente. Creo que una cosa que la gente de “fuera del Río”, como yo lo llamo, malinterpreta es que la gente en realidad no está tan impulsada por el dinero. Les motiva mucho la competencia, el querer demostrar que los demás están equivocados, y las finanzas son una forma de llevar la cuenta, y/o que ganar mucho dinero está correlacionado en un 0,9 con una especie de victoria en esta competencia, aunque no sea exactamente lo mismo.
Rob Wiblin: Hablas de varias virtudes y vicios que el altruismo eficaz podría tener, o varias debilidades que podría tener. Quisiera saber, considerando todos los factores, si crees que haya otros grupos que sean mejores que Open Phil en filantropía, o que compitan con Open Phil en términos de su impacto por dólar. ¿O hay otros grupos que den mejores consejos o consejos igualmente buenos a los de 80 000 Horas sobre cómo hacer el bien con tu vida o tu carrera profesional?
Nate Silver: No es que yo… Sí, creo que probablemente haya una gran diferencia. Aunque, de nuevo, creo que la Fundación Gates. Fui a una cena que organizó Bill Gates. No fue oficial, así que no puedo compartir comentarios específicos, pero sí lo suficiente como para decir que son bastante rigurosos en lo que hacen. Y él está muy bien informado sobre los diferentes programas y su eficacia, relativamente hablando.
Pero sí, creo que es una victoria bastante amplia. Incluso si asumes que tal vez haya alguna reversión a la media frente al valor real de una mosquitera para la malaria frente al valor estimado, y tal vez estés haciendo suposiciones ligeramente favorables, la diferencia entre las mosquiteras para la malaria en África y donar al fondo patrimonial de Harvard tiene que ser como de 100 000 veces o algo así. De hecho, creo que incluso el fondo patrimonial de Harvard es probablemente desutilitario: creo que en realidad podría ser malo para la sociedad.
Entonces sí, creo que hay muchas oportunidades al alcance de la mano y victorias fáciles. Pero una de las características de ser un jugador o hacer cosas similares durante mucho tiempo es que creo que la gente no se da cuenta de la curva en la que solo hay tantas oportunidades al alcance de la mano, y luego se vuelve cada vez más difícil, y/o hay más competidores en el mercado, y entonces llegas rápidamente a la superficie donde persigues ventajas cada vez más pequeñas, y entonces los pequeños errores en tus modelos pueden significar que estás en territorio de valor esperado negativo.
Rob Wiblin: ¿Crees que eso podría estar pasando con Open Phil hasta cierto punto?
Nate Silver: Creo que, en lo que respecta a las organizaciones benéficas, probablemente sigan teniendo un gran impacto positivo. No sé, tal vez en algún momento se necesite… No sé, yo no me dedico a la gobernanza de empresas o entidades sin ánimo de lucro.
Quizá en realidad quieras cosas que estén un poco más compartimentadas. Quizá quieras gente de riesgo existencial y gente de filantropía y no quieras necesariamente que estén en la misma metaestructura. Quieres dos organizaciones diferentes. Tal vez. No sé qué otros problemas pueda haber, si están usando equipos rojos para futuros tipos de riesgos y cosas así. Pero sí, quizá necesites más separación.
Por un lado, si este movimiento crece mucho, entonces pienso de nuevo en la conferencia Manifold en Berkeley, California, que se ha celebrado un par de veces, donde se reúnen personas de diferentes partes del mundo. Es de un tamaño considerable, y ahora mismo es realmente genial y divertido y todo el mundo se conoce, pero si crece, se va a hacer más grande, y no sé si las estructuras existentes puedan soportarlo.
Creo que tal vez lo mejor sería tener diferentes equipos que compitan entre sí, en cierto sentido, en lugar de tener una superestructura, eso me parece probablemente la dirección correcta. Pero no sé.
Rob Wiblin: Sí, acabas teniendo muchos problemas cuando intentas ampliar la escala de un grupo. Por ejemplo, las redes de confianza empiezan a romperse, porque la gente no sabe realmente en quién confiar porque el grupo es demasiado grande. También tienes demandas contrapuestas, y tipos de personas contrapuestas que quieren cosas distintas del grupo y no pueden satisfacerse todas al mismo tiempo.
Nate Silver: Sí. Y el pluralismo es un heurístico muy robusto, en términos generales.
Rob Wiblin: Mencionaste que has escuchado el programa, así que puede que tengas una idea del tipo de cosas en las que creo, y del tipo de cosas que 80 000 Horas escribe en su sitio web. ¿Sientes que discrepas de algunas de las cosas que decimos?
Nate Silver: En términos generales, probablemente no. A veces creo que la gente subestima lo improvisado que es algo de esto. Es fácil decir al principio: “Esto es improvisado. Es solo una estimación”. Pero luego te comprometes demasiado con el modelo, o las cosas se pierden en la traducción, potencialmente.
El ejemplo que doy en el libro es intentar estimar el bienestar animal, por ejemplo. ¿Fue Will MacAskill quien dijo que se basa en el número de neuronas, por lo que en realidad un elefante vale más que una persona?
Creo que lo que más me gusta del AE y del racionalismo en general es que la sociedad tiene que tomar decisiones, ¿verdad? Pongo el ejemplo en el libro de un perro llamado Dakota que se mete en el metro de Nueva York durante lo que será la hora pico dentro de una hora más o menos. Y la red de transporte de la ciudad de Nueva York tiene que decidir si cerramos todo el tren F, uno de los trenes más concurridos, que va de Manhattan a Brooklyn, para proteger la vida de este perrito llamado Dakota. Y de hecho deciden parar el tren.
En ese caso, ¿realmente tienes que calcular la utilidad de lo que vale la vida de un perro frente a una cantidad X de retraso para una cantidad Y de viajeros? Y, por cierto, ¿qué pasa si uno de ellos es un trabajador de emergencias y no puede llegar a tiempo al hospital de Brooklyn? Quizá muera un ser humano.
Quizás un área de cobertura insuficiente, o un área desatendida, es aplicar un pensamiento utilitarista para problemas gubernamentales de mediana escala. Creo que esto es probablemente más necesario. Los heurísticos gubernamentales suelen estar muy politizados, son muy engorrosos y se muestran reacios a emplear análisis de costo-beneficio.
Así que para cosas como los planes de distribución de vacunas contra COVID, tenías esquemas muy diferentes en el Reino Unido y en los EE. UU. En el Reino Unido decían: “Hemos mirado el gráfico y, en realidad, hay una curva exponencial en la que cuanto mayor eres, más probabilidades tienes de morir de COVID, así que empecemos con la gente de 95 años y luego bajemos cinco años cada dos semanas”. Mientras que en Estados Unidos teníamos todo este esquema complicado que intentaba equilibrar la igualdad y la utilidad y otras cosas, y no tenía mucho sentido.
Creo que los gobiernos deberían ser más utilitaristas, con cierta limitación, obviamente soy muy liberal: creo en la protección de los derechos de las personas en ese sentido liberal clásico. Pero dentro de esas limitaciones, se gasta mucho más dinero del gobierno que dinero de beneficencia. Creo que es un área de trabajo realmente desatendida, básicamente.
Rob Wiblin: Una crítica inusual que haces del AE en el libro es que no es compatible con la teoría de juegos. No es evolutivamente estable. Hablas de cómo, a la larga, las personas que solo usan sus recursos y su tiempo para beneficiar a extraños o personas con las que no tienen una relación mutuamente beneficiosa tienden a ser superadas y a desaparecer.
Es una preocupación interesante. ¿Cómo crees que podría resolverse y qué harías de manera diferente? Supongo que lo natural que se podría pensar es que, en ese caso, la comunidad del AE necesita tener límites más claros, y necesita beneficiar más a las personas dentro de esos límites y hacer menos para ayudar a desconocidos o extraños. Pero supongo que te puedes imaginar las críticas que surgirían de ese tipo de mentalidad.
Nate Silver: Creo que esto tiene dos partes. Una es una crítica más abstracta basada en la teoría de juegos, en la que si no defiendes tu territorio, entonces tiendes a ser pisoteado. Si estás en un partido de fútbol y un equipo es muy competitivo y entrena muy duro, y el otro equipo dice: “Bueno, creemos que el fútbol es realmente destructivo. Solo vamos a correr y patear el balón y divertirnos y ser inclusivos”. Si evalúas esa competición, el equipo competitivo gana siempre, ¿cierto?
Y tal vez hay un ligero aspecto de darwinismo social en el libro, donde creo que, en un sistema capitalista, a menos que se pueda limitar la competencia, el lado más competitivo suele ganar.
Pero también es un poco como encontrarse con la gente donde está, en el medio, un poco más en términos de la naturaleza humana. Una de las cosas que no me gusta del libro de Peter Singer es que dice que, digamos que haces un pequeño donativo y luego te sientes bien contigo mismo. Luego vas y cenas bien y te tomas una buena botella de vino francés o algo así, de gama media, no sé qué es exactamente. Bueno, también deberías sentirte culpable por eso. Creo que encontrar un punto intermedio entre el sentido común y algún tipo de utilitarismo singeriano sería muy útil.
Pero sí, me preocupan las personas que no están dispuestas a… Si no estás dispuesto a contraatacar, y no estás dispuesto a defender tu territorio y ser un poco parcial con tu grupo o tu tribu, entonces me preocupa que te engañen o te pisoteen.
En parte porque, de alguna manera, la teoría de juegos es el concepto más importante del libro. Hablamos mucho sobre el valor esperado, pero la teoría de juegos es lo que sucede en un mundo de 8 mil millones de personas donde todos intentan maximizar su valor esperado, más o menos. Creo que en un mundo de 8 mil millones de personas, los desincentivos que creas o las oportunidades que tienes de ser explotado inevitablemente resultarán en que seas explotado, porque tienes demasiadas oportunidades para que te exploten.
Si tienes, por ejemplo, un sistema financiero en el que existe riesgo moral —en el que si haces estas apuestas arriesgadas, el gobierno te rescatará, por lo que tienes más incentivos para hacer apuestas arriesgadas—, en un plazo de años o décadas, algunas o varias empresas del sistema lo descubrirán, crearán modelos, lo valorarán y empezarán a hacer esas apuestas, casi inevitablemente.
Así que si no tienes mecanismos de detección de fraude lo suficientemente sólidos, si eres propenso a ser víctima de actores que se aprovechan de tu buena fe y de tu confianza en extraños para politizar su agenda o para ganar influencia, creo que, al final, tarde o temprano, acabarás siendo explotado.
Esto se ve en algunas instituciones liberales típicas, como la academia, por ejemplo. La academia podría decir: “Queremos ofrecer una experticia imparcial, pero también tenemos intereses en Estados Unidos. Probablemente seamos demócratas progresistas. Queremos ser más inclusivos y no queremos ayudar a Trump a ganar, y queremos ser antiautoritarios”. Lo que ocurre, por tanto, es que tu experticia es secuestrada por personas politizadas. No estoy explicando esto lo suficientemente bien.
Rob Wiblin: ¿Estás diciendo que, con el tiempo, las personas que están más dispuestas a tomar atajos respecto a la honestidad intelectual se vuelven más prominentes?
Nate Silver: Ese es el equilibrio, ¿no? Si toleras la deshonestidad intelectual, entonces el equilibrio es que las personas intelectualmente deshonestas cobrarán relevancia dentro de tu movimiento.
Rob Wiblin: Sobre esta cuestión de qué tanto: mencionaste el libro de Singer, donde decía que deberías sentirte mal por cualquier dinero que gastes en ti mismo. El libro menciona esta preocupación de que el altruismo eficaz como comunidad podría ser demasiado austero y exigente, y dice que deberías sentirte mal si tienes hijos, si haces algo en beneficio propio. Por otro lado, también mencionas, sorprendido, esa fastuosa cena de donantes que Sam Bankman-Fried organizó en algún lugar.
Creo que ha sido muy difícil encontrar un equilibrio entre, por un lado, decir: “No deberías gastar demasiado dinero en ti mismo o en tus proyectos, porque es una especie de autocomplacencia. Puedes engañarte a ti mismo pensando que es una buena idea cuando no lo es”. Por otro lado, la gente puede criticarte por decir que no estás dispuesto a gastar dinero en cosas que sean útiles, o que estás insistiendo en una austeridad excesiva, más de lo que la gente está dispuesta a soportar.
¿Tienes alguna opinión al respecto? ¿Estamos encontrando el equilibrio en ambos sentidos en diferentes momentos?
Nate Silver: A ver, la idea de donar el 10 % no creo que sea la peor idea, necesariamente. Creo que eso es un término medio. Claro, es un poco complicado. Creo que la crítica de que el AE halaga la sensibilidad de personas que no son necesariamente ricas, pero que tienen habilidades que tienden a conducir a una gran riqueza financiera, creo que eso está bien. Creo que la gente se preocupa demasiado por cosas como: “Esta persona donó miles de millones de dólares a organizaciones benéficas, pero es la persona equivocada”.
Rob Wiblin: “Siguen sin caerme bien”
Nate Silver: Sí. Me gusta que los multimillonarios donen miles de millones de dólares a organizaciones benéficas, por ejemplo.
El otro tipo de crítica que tengo del utilitarismo estricto es que es demasiado complicado ponerlo en práctica. Probablemente se necesiten algunos métodos heurísticos simplificadores que funcionen bastante bien. No estoy seguro de cuáles aplicaría.
También le falta un poco de “sentido común político”. Supongo que Eleven Madison Park es el restaurante vegano más famoso y opulento del mundo, ¿no? Y si me hubieras llamado, algo conozco de la comida de Nueva York, y me hubieras dicho: “Nate, elige un restaurante que sea igual de bueno, un poco más barato y del que nunca saldría un titular negativo, porque es menos conocido”… Sí, no sé. Casi me pregunto si SBF organizó la cena allí para presumir. Pero puede que haya mostrado una falta de conciencia política.
Rob Wiblin: En el libro, un tema recurrente es que no estás muy dispuesto a sumarte de lleno al altruismo eficaz porque tienes reservas sobre el utilitarismo. Creo que muchas de ellas son las típicas reservas que uno puede tener: la falta de restricciones secundarias, no valorar una gama suficientemente amplia de cosas diferentes, preocuparse solo por el bienestar, no preocuparse por la autonomía, ese tipo de cosas.
Me parece una pena, porque cuando intentábamos averiguar “¿qué debería ser el altruismo eficaz? ¿Cómo debería definirse? ¿Qué debería incluirse y qué no?”, al principio lo veía como un intento de tomar el utilitarismo y deshacerse de las partes negativas. Tiene un montón de compromisos que son totalmente innecesarios. Son molestos, pero de ninguna manera cargan el peso. Tomemos la parte buena: que es bonito ayudar a la gente cuando el beneficio para los demás es muy grande y el costo para ti es muy pequeño, quitemos todas las partes desagradables y luego sigamos con eso. Añadiría, con suerte, que no se puede robar, no se pueden hacer todas estas cosas terribles.
¿Crees que es una buena aspiración, fundamentalmente? ¿Tener una filosofía de vida que ponga en primer plano el beneficio de las personas, mientras se eliminan las partes del utilitarismo con las que casi nadie está de acuerdo?
Nate Silver: En principio, creo que sí, claro. Creo que uno de los problemas que tiene el movimiento es que está en una especie de fase adolescente un poco incómoda. ¿Cuántos años tiene? ¿Depende de cómo lo definas?
Rob Wiblin: Como mucho 15.
Nate Silver: OK, entonces más bien como un preadolescente o un adolescente. Un punto que el libro plantea al tratar de rastrear la historia intelectual del AE/racionalismo —que creo que en realidad son en cierto modo menos parecidos de lo que la gente supone— es el hecho de que esto nace de estas pequeñas redes, principalmente en Oxford y/o en el Área de la Bahía de California y/o en internet.
Y son todas personas que se conocen entre sí, pero que aportan cosas diferentes: mercados de predicciones, bienestar animal, algunos son una especie de aceleracionistas tecnológicos, otros son quizás un poco más socialistas, algunos están muy preocupados por la percepción pública del AE, otros quieren discutir sobre genética y cosas realmente políticamente incorrectas.
Y a medida que la comunidad crece, quizá algunas de las contradicciones se hagan un poco más evidentes. Creo que en la forma actual del AE, hay más utilitarismo singeriano del que me atraería. Pero no sé cómo se puede cambiar eso. Quiero decir, aquí es donde pienso que quizá el movimiento necesite tener… Como cuando se disolvió Standard Oil o algo así. Quizá se necesite una rama en EE. UU. y otra en Oxford, y algo que sea un poco más diverso y pluralista.
Rob Wiblin: Ya veo. Así que lo dividirías en diferentes marcas que sean más específicas, más de nicho, y que no tengan que superponerse tanto y sentir que comparten una identidad. Y entonces podrías hacer que discreparan y debatieran entre ellas.
Nate Silver: Sí, y se podría celebrar una gran conferencia cada año que alternara de lugar o algo así. Creo que eso sería más saludable.
Rob Wiblin: Has mencionado que te gusta el utilitarismo de las reglas. ¿Debería el AE tratar de convertirse en un utilitarismo de las reglas? Lo que dices es que en lugar de fijarte en cada acto que haces e intentar maximizar su utilidad, intentas averiguar qué reglas de comportamiento conducirían a las mejores consecuencias en general, y luego intentas seguir esos principios generales de comportamiento. Suena bastante bien en la práctica.
Nate Silver: Sí. Como alguien que sigue la teoría de juegos, creo que eso es resolver para el equilibrio, ¿no? Si todos se comportan de esta manera, entonces, ¿cómo es el equilibrio que resulta? Creo que es como un orden de magnitud más robusto, también más difícil de calcular. Pero supongo que estoy prácticamente listo para suscribirme al utilitarismo de las reglas.
Rob Wiblin: Sí, supongo que el utilitarismo de las reglas tiene dificultades filosóficas porque siempre puedes decir: ¿a qué nivel de generalidad deberías pensar en las acciones? ¿Y por qué ese nivel de generalización? ¿Por qué no pensar en la situación específica en la que te encuentras? Y entonces vuelves al utilitarismo de los actos. Y no estoy seguro de cómo resolver esa cuestión filosófica.
Pero en términos prácticos, parece mucho mejor. Resulta mucho mejor abogar por ello, porque tendrá mejores consecuencias, porque la gente hará cosas más útiles con esa idea en mente.
Nate Silver: Al estar hablando del libro con mucha gente, no es tan difícil explicar el valor esperado, ¿cierto? Digamos que estás jugando póquer: hay 52 cartas que se pueden repartir, y este es el resultado medio. Y luego tienes que ser más abstracto cuando te enfrentas a situaciones en las que falta información, o lo que sea.
Pero creo que la noción de equilibrio de la teoría de juegos es en realidad el concepto más importante del libro, porque creo que las personas son realmente racionales dentro de sus competencias cuando tienen algo en juego y se enfrentan a un problema recurrente. Creo que las personas son buenas para conseguir lo que quieren, las cosas a las que dan prioridad dentro de sus limitaciones, y para tratar al resto del mundo como personajes ajenos en los que no pueden influir. Veo que este error se comete muy a menudo.
Rob Wiblin: ¿Por ejemplo?
Nate Silver: En política lo ves todo el tiempo. Después del ascenso de Obama en 2008, 2012, hace 12 años, los demócratas decían: “¡Miren estas tendencias! Tenemos a toda la gente de color y a todos los votantes más jóvenes. Extrapolando eso, vamos a tener supermayorías demócratas durante los próximos 20 años”. Bueno, eso no tiene en cuenta el hecho de que tienes un partido rival, y que estás dando cosas por sentado. ¿Qué pasa si baja tu porcentaje de votos de universitarios blancos? Todos esos trabajadores sindicalizados que solían votar por los demócratas, pero que ahora son culturalmente más conservadores: ¿qué pasa si aparece un Donald Trump y no un Mitt Romney, y les resulta potencialmente mucho más atractivo?
El hecho de que, en las elecciones estadounidenses, haya elecciones tan reñidas es, en cierto modo, una gran prueba de las soluciones óptimas de la teoría de juegos: que los partidos son bastante eficientes a la hora de dividir el panorama electoral, pero no en tratar al otro bando como si no fuera capaz de adaptarse de forma inteligente.
Rob Wiblin: Sí. Una ventaja de haberme hecho un poco mayor es que recuerdo haber seguido las elecciones cuando era adolescente, y cada vez que había una gran victoria de un bando, decían: “El otro bando, no volverá a gobernar en toda una generación”. Y yo decía: “Vaya, qué tremenda noticia. ¡Increíble!”. Y ahora he oído eso docenas de veces en mi vida, y no creo que haya sido cierto ni una sola vez. Tal vez una.
Nate Silver: Y es más, los efectos de quienes ostentan el poder en la política son mucho menores ahora, o tal vez incluso inversos, ¿no? En realidad, preferirías ser el partido de la oposición. La gente quiere más equilibrio y quiere alternar un poco más. Así que siempre estás como devolviendo dinero, 30 centavos por dólar cada vez que ganas unas elecciones, poniéndote en una situación en la que es más probable que pierdas la próxima vez.
Rob Wiblin: Estabas hablando del valor de la teoría de juegos. ¿Querías añadir algo al respecto?
Nate Silver: Es como Tyler Cowen, si lees Marginal Revolution: siempre está diciendo: “Resuelve para el equilibrio”. Creo que eso es algo que me ha sido útil: pensar más en términos de la teoría de juegos sobre cuál es el comportamiento resultante. Incluso si estoy escribiendo mi boletín de noticias, por ejemplo: ¿cuál es el comportamiento resultante si todo el mundo se comporta de esta manera? En cierto modo, te hace comportarte con un enfoque a más largo plazo, y tal vez incluso de forma más ética.
Algo que se aprende de la teoría de juegos es que si intentas explotar a alguien, entonces tú también puedes ser explotado. Si jugamos piedra, papel o tijera, ¿juegan eso en el Reino Unido?
Rob Wiblin: Sí. Lo llamamos Rochambeau.
Nate Silver: Rochambeau. OK, como se llame. Y tú, Robert, siempre vas con la piedra. Y por eso yo digo: “Yo voy a jugar siempre con el papel”. Bueno, entonces lo que tienes que hacer es superarme con las tijeras, ¿no? La cosa se vuelve circular, y el equilibrio óptimo de la teoría de juegos es aleatorizar un tercio, un tercio, un tercio.
Y habiendo jugado suficiente póquer, he estado en situaciones en las que crees que tienes ventaja, y crees que eres capaz de no hacer trampa en el sentido real de hacer trampa, usando dispositivos para hacer trampa, pero estás tratando de “explotar” a alguien, que es el término de la teoría de juegos. Y antes de que te des cuenta, estás tomando un atajo y eres tú quien termina pagando el precio.
Rob Wiblin: Uno de mis tuits favoritos tuyos es: “Cuando ellos van a por lo bajo, nosotros vamos a por lo alto el 80 % de las veces y les damos un rodillazo en las pelotas el 20 % de las veces”.
Nate Silver: Es importante tener estrategias mixtas, ¿no?
Rob Wiblin: En el libro haces una distinción entre la cultura del AE y la cultura racionalista. Y creo que en un momento dices que los AE son muy reservados y educados, muy conscientes de las relaciones públicas. Un amigo me dijo: “Ojalá fuera cierto. No sé con qué AE ha estado hablando este tipo”.
Pero supongo que estás haciendo una distinción que es algo real entre la cultura del AE y la cultura racionalista: los racionalistas, creo, se preocupan mucho menos por las apariencias, por las comunicaciones con el público en general. Están dispuestos a decir lo que piensan, sin importar si a la gente le parece ofensivo o no. Eso es cierto en mayor medida.
¿Crees que la cultura del AE debería ser más libre y estar más dispuesta a decir cosas que cabreen a la gente y hagan enemigos, aunque no estén relacionadas con un tema central? En el libro parece que a veces piensas: ¡puede ser!
Nate Silver: En términos generales, sí. Creo que decir cosas que no son populares es a menudo un acto altruista. Y supongamos que no es peligroso. No sé qué se considera peligroso, pero expresar una idea impopular. O tal vez sea popular, pero hay una cascada en la que la gente no está dispuesta a decir algo que en realidad es bastante popular. Me parece admirable cuando la gente está dispuesta a arriesgarse a decir algo que otras personas no están dispuestas a decir.
Rob Wiblin: Creo que la razón por la que la cultura del AE suele oponerse a eso, aunque no siempre, es simplemente el deseo de centrarse en los problemas más graves. Decimos que lo que realmente importa es la IA, la regulación de las tecnologías emergentes, la pobreza, el trato a los animales criados en granjas intensivas.
Y respecto a otras cosas que son muy controvertidas y podrían molestar a la gente, creo que los AE serían más propensos a decir: “Esas son distracciones que nos van a costar credibilidad. ¿Qué ganamos realmente con eso si no es una creencia controvertida sobre un problema central y supergrave?”. ¿Estás de acuerdo con eso?
Nate Silver: Es justo por eso que ahora estoy más convencido de dividir el altruismo eficaz en los equipos naranja, azul, amarillo, verde y morado. Quizá lo que más le importa al equipo morado es maximizar la filantropía y también le interesan mucho las relaciones públicas. El equipo rojo está un poco más influenciado por el racionalismo y considera la libertad de expresión como una causa fundamental, y cosas por el estilo. Creo que es difícil tener un movimiento donde se mezclen estas seis o siete influencias intelectuales, porque hace 10 o 15 años la gente se reunía para tomar un café o creció en internet (en una era más libre de internet). Creo que hay similitudes, pero englobarlo todo dentro de un mismo marco empieza a parecer un poco forzado.
Rob Wiblin: Sí, creo que esa era la opinión que tenían algunas personas hace 15 años, tal vez: que esto es demasiado grande, que es demasiado como para intentar englobarlo en un solo término de “altruismo eficaz”. Quizá desearía que se hubieran dividido en grupos diferenciados. Eso podría haber sido más robusto y también habría sido menos confuso para el público. Porque tal y como están las cosas, se están metiendo tantas cosas en estas etiquetas de altruismo eficaz o racionalidad que puede resultar muy confuso desde fuera, porque piensas: “¿Son estos los de la pobreza o los de la IA? Son muy diferentes”.
Nate Silver: Sí. Creo que, en general, cuanto más pequeño y diferenciado, mejor. No sé si es una especie de equilibrio a largo plazo, pero, de hecho, a la larga se crean más países en el mundo, y no menos, por ejemplo.
Y en un principio iba a haber más cosas sobre la pandemia de COVID en el libro, pero nadie quiere seguir hablando de eso, cuatro años después, pero durante la pandemia todas las grandes democracias multiétnicas —especialmente Estados Unidos, Reino Unido, India y Brasil— tuvieron grandes dificultades. Mientras que los suecos o los neozelandeses o los israelíes o Taiwán pudieron ser más ágiles y gozaron de una mayor confianza social. Eso pareció funcionar bastante mejor.
Así que tal vez estamos en un universo en el que lo mediano es malo. Hay que ser muy grande o muy pequeño.
Rob Wiblin: Ya veo. Algo parecido al liberalismo o ser mucho más de nicho.
Rob Wiblin: Digamos que te dan 10 mil millones de dólares y un equipo de investigación para crear una nueva fundación benéfica y tratar de hacer el mayor bien posible. ¿Qué harías, Nate?
Nate Silver: Compraría un equipo de la NBA. No, no sé. Tal vez empezaría de cero y pensaría en… Tal vez solo necesites un nuevo comienzo para decir, ¿cuáles son las áreas realmente desatendidas actualmente? Es decir, estoy seguro de que hace 10 años la IA estaba muy desatendida. Me pregunto si esos heurísticos necesitan actualizarse.
Me pregunto si el clima es un ejemplo de un tema que el AE considera demasiado prominente. Había mucha preocupación por el clima, pero ¿y si se crearan organizaciones climáticas más “racionales”? ¿Es ese un nicho poco explotado? Porque se politizan tanto y se involucran tanto en la política progresista… ¿Se podría crear una organización contra el cambio climático que fuera de alguna manera inmune a, digamos, los peligros del progresismo y cosas así, y a la cooptación de personas que quieren adoptarla para objetivos ajenos al clima? Eso podría ser interesante, por ejemplo.
Rob Wiblin: Hay gente que lo intenta. Incluiremos enlaces a algunos episodios de entrevistas a personas que intentan hacer eso. Una cosa que recuerdo de esa entrevista es que se decía que la energía renovable tiene tanto financiamiento y es tan popular que, si la energía renovable funciona, entonces estamos a salvo del cambio climático. Así que se centran mucho en cosas como: ¿y si las energías renovables son un fracaso? ¿Y si son muy decepcionantes? ¿Qué necesitamos en ese caso? Es muy pensamiento al estilo de “el Río”.
¿Hay alguna otra área problemática que creas que podría estar subestimada, o que le pedirías a tu equipo de investigación que analizara?
Nate Silver: Lo que he mencionado antes es la eficiencia del gasto público. No sé cómo se convence a los gobiernos para que hagan esto, pero perseguir reformas —como presionar a los gobiernos para que aumenten la escala salarial y se vuelvan menos burocráticos, quizá más al estilo de Singapur, supongo que probablemente valga la pena.
Y cosas como el despilfarro, la corrupción y la ineficiencia del gobierno parecen temas tan aburridos. Pero, ¿por qué cuesta 20 veces más construir una estación de metro en Nueva York que en París? Esa es un área de trabajo que creo que los AE o las personas relacionadas con el AE podrían empezar a explorar un poco más.
Rob Wiblin: Sí, creo que no he oído a ningún AE hablar casi nada sobre la reforma de la función pública. Zvi Mowshowitz tal vez haya hablado de ello, pero podría ser el único.
En cuanto al tema del metro, en realidad Open Phil financia al Instituto para el Progreso y a un montón de otras organizaciones de estudios sobre el progreso. Así que creo que lo han tanteado un poco, aunque no sea su principal objetivo.
Nate Silver: Esta es una causa muy de nicho, y se relaciona con los estudios sobre el progreso: creo que la historia económica es un área muy subestimada. Creo que financiar con un salario anual de siete cifras un instituto de historia económica, que es parte del instituto de estudios sobre el progreso, sería bastante provechoso, potencialmente, en términos de investigación básica.
Rob Wiblin: Recuerdo que Open Phil trató de financiar a un grupo de personas para que hicieran investigación en macrohistoria. [Corrección: Rob estaba pensando en esto.] Creo que a Holden [Karnofsky] le interesaba mucho esto allá por 2016 y 2017. No sé si se llegó a hacer algo, pero supongo que al menos fue una idea que se les ocurrió.
¿Alguna otra cosa que te llame la atención?
Nate Silver: ¿Qué fue lo del episodio de hace un par de semanas con pulsos electromagnéticos?
Rob Wiblin: Ah, sí, los PEM. La experta en guerras nucleares, [Annie Jacobsen].
Nate Silver: Cosas como el almacenamiento de datos a largo plazo y la robustez. Tal vez la cantidad de enlaces rotos en internet. No sé quién es el propietario de archive.org, pero probablemente convenga tener una copia de seguridad. Eso parece importante.
Rob Wiblin: Sí, creo que eso no ha recibido financiamiento. Hace años tuvimos una entrevista en la que hablamos de qué harías si quisieras enviar un mensaje a una civilización que fuera a resurgir dentro de 100 000 años, y resultó ser extraordinariamente difícil. No sé si alguien ha financiado un intento de averiguar cómo hacerlo en la práctica.
Nate Silver: Pero surge en varios escenarios. Si tienes un invierno nuclear, ¿cómo reconstruyes? Creo que ese tipo de planificación en casos de contingencia podría ser bastante valioso.
Esto ya es desviarse mucho del tema para este punto de la conversación, pero la pérdida de datos de referencia me preocupa un poco. Creo que disponer de algunos datos de referencia que se puedan tratar como absolutamente verdaderos y fiables crea puntos de apoyo que hacen que los modelos sean potencialmente mucho más robustos, y es algo en lo que la gente debería pensar.
Rob Wiblin: ¿Cómo estamos perdiendo eso?
Nate Silver: Así que si ahora vas y haces una búsqueda en Google Noticias, todo está un poco… No sé muy bien cómo decirlo. Ya no puedes ver las fechas de los artículos, ni cuántos artículos se ajustan realmente a tu criterio de búsqueda, ni cosas por el estilo. Están eliminando cosas que son simplemente comprobaciones básicas de fiabilidad en cuanto a los datos. Está demasiado algoritmizado, ¿no?
O creo que el asunto de Google Gemini, que inserta comandos que el usuario no ha pedido, es realmente insidioso y coercitivo. Creo que es bastante malo; en realidad es bastante perverso presentar una cosa y luego manipularla de una forma que no es lo que el usuario esperaba.
Rob Wiblin: Creo que es un poco más aburrido de lo que la gente cree. Parece que Google se está quedando un poco atrás en el juego de la IA; están intentando sacar estas versiones con prisas. Están como, “La gente se queja de que las imágenes tienen demasiada gente blanca, así que vamos a meter esto en el prompt para intentar arreglar esa versión”.
Nate Silver: Es algo gracioso, pero me preocupo cuando las empresas de datos se vuelven menos transparentes, supongo.
Rob Wiblin: Entonces, ¿tu preocupación es que, en la era digital en general, las cosas se están volviendo más recursivas? ¿O es más difícil encontrar los registros porque no tienes acceso a ellos, porque la empresa puede simplemente cerrarlos o tener un aviso y no te dicen lo que es?
Nate Silver: Es el tipo de problema de la recursividad. Hay una metáfora que no estoy consiguiendo hacer aquí, pero ya sabes, el hecho de que podamos tener problemas para construir cosas, si no se mantiene el diseño original de estas, entonces eso puede causar problemas en el futuro; probablemente hay algunas cosas en las que ahora somos peores como sociedad. Ya sabes, ¿usar equipos rojos para el concepto de ¿y si hubiera un invierno nuclear y tuviéramos que empezar a reconstruir la sociedad?
No sé. No soy precisamente un gran conocedor de la exploración espacial. Pero parece que si aceptas el argumento de Toby Ord de que la civilización tiene una probabilidad de 1 entre 6 cada década de destruirse a sí misma, ¿se considera demasiado cliché que los largoplacistas piensen más en la exploración espacial o en cosas así? No sé. Parece una pieza que tal vez se vea como de vergüenza ajena, pero tal vez la gente debería pensar más en ello.
Rob Wiblin: Supongo que porque creo que la mayor parte del riesgo proviene de la IA, que la IA estaría detrás. Quiero decir, supongo que ayuda con los riesgos biológicos potencialmente, si tienes grupos separados, aunque entonces te preguntas, ¿por qué no ponerlos bajo el mar? Probablemente sea más fácil estar bajo el mar que en Marte.
Una cosa de la que no estaba seguro: Actualmente, creo que la donación inspirada en el altruismo eficaz es quizás la mitad del estilo de GiveWell/salud y bienestar globales, así que no todo son mosquiteras; también hay financiamiento para reducir la contaminación atmosférica en la India y cambio de políticas, ese tipo de cosas. Y quizá la otra mitad se centre en todo lo demás, incluyendo la IA, los riesgos asociados a nuevas pandemias; ese otro paquete más especulativo y más orientado al futuro.
En el libro, dices que tal vez quieras simplemente alejarte la cuestión de si es bueno tener más gente en el futuro. Esa filosofía no te interesa mucho. Supongo que no te atrae mucho la idea de que añadir más personas sin límite sea mucho mejor. Pero también crees que el riesgo de catástrofe asociado a la IA es de entre el 2 y el 20 %. Así que no estaba seguro: en última instancia, ¿financiarías la IA más o menos con respecto a lo que crees que se hace ahora?
Nate Silver: También surgen estos debates sobre si investigar en capacidades de investigación en IA es realmente bueno o en realidad está acelerando y si los nerds están ayudando a la gente a invertir más en IA.
Así que… probablemente más, pero trataría de encontrar formas de hacer que los equipos que trabajan en estos problemas sean más diversos en diferentes aspectos, y tal vez tener potencialmente una perspectiva externa. Me preocupa un poco el pensamiento de grupo en esos movimientos.
Rob Wiblin: ¿Crees que son demasiado técnicos, o tal vez que se ciñen demasiado al pensamiento de estilo racionalista? ¿Quizás no provienen de suficientes disciplinas distintas?
Nate Silver: Sí. Hice la misma crítica durante la pandemia de COVID, donde había gente que se dedicaba a la salud pública, pero no había suficientes economistas que asesoraran sobre las políticas al respecto.
Me pregunto si no tendrán aquí un problema casi a la inversa. Por ejemplo, en todas las películas de ciencia ficción, Contacto o La llegada, siempre aparece el antropólogo que habla con los extraterrestres y comprende su cultura, y la lingüista y gente así. Me pregunto si necesitamos un poco más de eso.
Creo que en el AE existe un cierto estigma en torno a las personas que son teístas. Y de hecho creo que plantea algunas cuestiones cuando piensas en la consciencia y cosas así. Probablemente sería deseable que hubiera más teístas en el AE y en el estudio de la IA y cosas así, por ejemplo.
Rob Wiblin: Creo que es un problema que se está resolviendo por sí solo a medida que estas preocupaciones se generalizan y más gente se involucra. Supongo que está empezando desde una base muy baja de diversidad de estilos de pensamiento.
Nate Silver: Sí.
Rob Wiblin: No iba a sacar el tema de la pandemia de COVID, pero hagámoslo. Creo que hay un error interesante que creo que la gente de “el Río”, y posiblemente tú también, está cometiendo. Cuando estás acostumbrado al razonamiento de estilo económico, es muy tentador pensar que se produjeron tantos daños con la pandemia debido a todas las medidas de control que implementamos —ya sabes, un costo masivo para la salud mental, un costo masivo para la economía, todas estas cosas—. Así que lo que debimos haber hecho era movernos a lo largo de la curva de costo marginal: debimos haber puesto menos restricciones y debimos haber aceptado una mayor cantidad de contagios para que la vida de las personas no se viera tan afectada.
Y creo que lo que se pasa por alto es que este es un caso muy extraño, en el que básicamente, si R está por encima de 1, muy pronto todo el mundo tiene COVID. Si R está por debajo de 0, muy pronto nadie tiene COVID. Realmente no hay un término medio.
Y para lo que quieres hacer, tienes dos opciones. Una es, podrías decir: “Vamos a aceptar que R está por encima de 1. Vamos a aceptar que básicamente todo el mundo va a estar expuesto al COVID antes de que lleguen las vacunas. Probablemente morirá entre el 1 y el 2 % de la población”. Podría ser un poco más, un poco menos, dependiendo de la rapidez con la que permitas que se propague y de lo saturado que esté el sistema hospitalario. Pero podrías aceptar eso, por un lado.
O bien: “Lo que tenemos que hacer es mantener la R justo por debajo de 1, en 0,9, para tener un pequeño colchón. Y vamos a intentar hacerlo de la manera menos costosa, que imponga los menores costos posibles”.
En realidad, solo se pueden adoptar estas dos estrategias. Y me preocupa que la gente piense que podríamos haber llegado a un término medio que habría sido mucho mejor. Cuando, de hecho, la elección fue bastante brutal.
Nate Silver: Sí, las soluciones intermedias resultaron ser las peores, que es donde terminaron muchas de las democracias multipartidistas. En el póquer, es la estrategia de subir la apuesta o retirarse: a menudo, en el equilibrio de la teoría de juegos en el póquer, quieres subir la apuesta o retirarte, pero no igualar.
Así que o quieres hacer como Suecia y decir: “Nunca vamos a tener una tasa de contagio por debajo de 1, así que hagamos más cosas al aire libre y protejamos a los ancianos. Pero mucha gente va a morir”. O haces como Nueva Zelanda: “Afortunadamente, somos un país insular en el Pacífico Sur, y todavía no tenemos casos. Simplemente cerremos la frontera durante dos años”. Y esas estrategias extremas son más eficaces que ir saliendo del paso, en mi opinión.
Rob Wiblin: Entonces, dirías que sufrimos enormes costos sociales. El bienestar de las personas se redujo mucho. Y al mismo tiempo, para cuando llegaron las vacunas, la mitad de las personas ya habían estado expuestas, por lo que ya habíamos asumido la mitad de los costos, aproximadamente. Tal vez no tanto, porque logramos extender la curva.
Nate Silver: El modelo R=1 se complica cuando hay reinfección. Empiezas a introducir más parámetros cuando hay cierta duración de la inmunidad a la enfermedad, aunque es evidente que los resultados graves disminuyen. Va a haber personas con COVID largo que se van a enojar conmigo. Es claro que la carga total de la enfermedad va a disminuir, y es probable que la gente esté infectada todo el tiempo y ni siquiera lo sepa.
Hay una larga historia de… se cree que algunas gripes en realidad eran quizás condiciones similares al COVID que ahora están en segundo plano y no son particularmente importantes. Y el hecho de que el debate sobre la “inmunidad de rebaño” se estigmatizara tanto fue una de las muchas cosas que me molestaron de las discusiones sobre la pandemia.
Rob Wiblin: Un punto interesante que planteas en el libro es que crees que sería egoísta por parte de la gente rica —como tú o yo, o supongo que simplemente las personas que viven bien en países ricos— intentar detener el desarrollo de la IA durante demasiado tiempo. Tal vez pausas más cortas o retrasos temporales podrían ser razonables, pero tratar de evitar que el progreso de la IA ocurra durante décadas, crees que sería egoísta. ¿Puedes explicar por qué?
Nate Silver: Porque creo que ahora hay países, como Francia, por ejemplo, o tal vez los países nórdicos, donde tienen, especialmente en los nórdicos, una igualdad relativamente alta. Y tal vez estén tomando una vía de escape y diciendo: “Conservemos nuestra sociedad tal como está. Hemos alcanzado un alto nivel de bienestar humano, prosperidad y bondad”.
Mira, si todos los países tuvieran el nivel de vida de Noruega o algo así, entonces tal vez diría que está bien, porque en algún momento hay que preocuparse por la sostenibilidad, ¿verdad? Quizás entonces tengamos que centrarnos totalmente en cómo hacer que el florecimiento humano sea sostenible a largo plazo. Quizá eso signifique encontrar formas de cubrir nuestras apuestas con colonias en el espacio exterior. Quizá signifique intentos serios de lograr el desarme nuclear, por ejemplo, para protegernos contra algunas de las amenazas existenciales de menor riesgo. Quizá ahora sea el momento de tener sistemas de defensa contra asteroides o cosas por el estilo.
Pero estamos tan lejos de eso. ¿Quiénes somos nosotros para decir ahora, como occidentales ricos, “cerremos la puerta ahora mismo”? Porque hay signos de estancamiento secular, especialmente en Occidente, pero según la mayoría de las mediciones, el crecimiento del PIB mundial alcanzó su punto máximo en la década de 1970. La crisis de fertilidad es algo de lo que apenas se está empezando a hablar. Yo lo planteé como una crisis, aunque tal vez no lo sea, sino como el declive de la fertilidad. Puede que nunca lleguemos a los 10 mil millones de personas en todo el mundo, y puede que haya muchas asimetrías en cuanto al envejecimiento de la población, gracias a los avances de la ciencia médica, y no haya muchos trabajadores para mantenerla. Eso puede crear todo tipo de fricciones en la sociedad.
Así que hay argumentos muy sólidos de que la IA es una tecnología muy importante en términos ordinarios. No sé muy bien cómo decirlo. En el libro tenemos algo llamado la “Escala de Richter Tecnológica”, donde una magnitud 7 es algo que ocurre una vez por década, una 8, una vez por siglo y una 9, una vez por milenio. Es decir, puede ser.
Creo que el otro día hablaste con Vitalik Buterin, y él ha hablado de cómo probablemente hay una pequeña desaceleración en relación con las expectativas y el progreso de los modelos de lenguaje a gran escala, pero eso podría ser bastante bueno, ¿no? Que tengamos tiempo para obtener una utilidad mundana de ellos.
Estuve en San Francisco la otra semana y tomé un Waymo por primera vez, y es realmente genial. Creo que tal vez la gente extrapola demasiado de las tendencias: “Los coches sin conductor no están funcionando tan bien”. Me sorprendería que no tuvieran un gran impacto en la sociedad. Fue una prueba de concepto suficiente, porque conduces en condiciones reales como una tarde lluviosa (no sé si estaba lloviendo; en realidad, hacía sol) en San Francisco. Y evita de forma muy intuitiva a los peatones que cruzan imprudentemente, tiene una aceleración muy suave y hace cosas que son bastante inteligentes, y creo que obviamente bastante mejores que los conductores humanos. Aparentemente, en sus propias pruebas, que puedes descartar, son 5 veces o algo así más seguros.
Así que sí, creo que es demasiado pronto para decir, levantemos el puente levadizo y detengamos el progreso tecnológico, justo cuando a la gente de Occidente le va bastante bien.
Rob Wiblin: Me gusta este punto, porque cambia un poco el guion, donde creo que mucha gente diría que la gente de Silicon Valley está invirtiendo en IA porque se beneficiará mucho personalmente. Creo que, de hecho, con el tiempo, los beneficios de la IA acabarían diseminándose básicamente a todo el mundo. Podrías escuchar la entrevista con Carl Shulman si no te convence eso; creo que explica por qué sería muy sorprendente que no lo hicieran. Si las cosas van bien, al menos razonablemente bien, casi todo el mundo acabará beneficiándose mucho.
Y básicamente, cuanto peor estés ahora, más ganarás. Si tu vida ya es muy buena, no puede mejorar mucho más. Pero si realmente estás luchando contra la pobreza, entonces tienes mucho más potencial de mejora.
Nate Silver: Creo que probablemente sea cierto en su mayor parte, aunque puede tener efectos contraintuitivos. En el póquer, existen soluciones de la teoría de juegos, llamadas solucionadores, pero son un poco lentas. Y ahora hay herramientas de IA que se pueden superponer a las soluciones de la teoría de juegos para proporcionar equilibrios de Nash aproximados rápidos, lo que crea problemas como las trampas, por ejemplo, en el póquer en línea.
Pero es curioso: si todo el mundo está jugando con una estrategia de equilibrio de Nash pura, pero aún tienen que ejecutar físicamente la estrategia, entonces la ventaja proviene de las lecturas físicas, como la sangre fría bajo presión. Creo que tal vez no sea tan intuitivo qué habilidades prioriza la IA y cuáles no, necesariamente.
Pero también me preocupa que podamos acabar en distopías leves. Una que yo llamo “capitalismo de casino hipermercantilizado”, en el que básicamente se extrae todo el excedente del consumidor para los productores y las grandes corporaciones. Son dueños de nuestros datos. Tienen algoritmos muy buenos que utilizan la lógica difusa para aprender a hacernos pagar la cantidad exacta que pagaremos por un vuelo de Nueva York a Londres, y extraer cada dólar que estemos dispuestos a pagar. Y nos empujan de maneras que son sutil o no tan sutilmente coercitivas cuando supuestamente tenemos opciones, y no cuando no las tenemos. Y que si tienes mucha capacidad de decisión y una buena intuición de lo que están haciendo las IA, puedes beneficiarte de ello; pero si no la tienes, entonces te dejas engañar. Eso parece una preocupación distópica que creo que no es existencial, sino catastrófica.
Además, para algunas personas, la probabilidad de que la IA cause una catástrofe puede incluir situaciones en las que los seres humanos básicamente renuncian a ser agentes, en las que tal vez sean las IA más algunos directores ejecutivos los que tengan el 90 % de la capacidad de decisión en el mundo. Y que tal vez podamos jugar videojuegos geniales y cosas así, y tengamos alguna capacidad de agencia nominal, pero muy disminuida. Eso también me preocupa bastante.
Rob Wiblin: Sí, la gente puede leer el libro si quiere saber más sobre eso.
Así que estás cambiando un poco el guion y diciendo que sería egoísta frenar el progreso de la IA. Hay otro sentido en el que creo que el resto del mundo y las personas en situación de pobreza están resultando perjudicados y del que no oigo hablar mucho a la gente.
Digamos que el mundo, la humanidad en su conjunto, se enfrenta a una disyuntiva entre su apetito de riesgo: tiene el potencial de obtener ganancias masivas, pero crees que el riesgo de fatalidad de la IA es del 2 al 20 %, menos de la mitad, pero sigue siendo bastante importante. Tenemos que decir que esta es una disyuntiva complicada: la recompensa está ahí, pero ¿cuánto estamos dispuestos a retrasar para reducirla del 20 al 15 %?
¿Quién puede influir en esto? Los votantes estadounidenses, más o menos. Quizás los votantes de California un poco. Supongo que un puñado de personas en el Partido Comunista Chino. Posiblemente, algunos votantes en el Reino Unido podrían influir un poco en el margen. Pero eso es básicamente todo. Todos los demás en el mundo, si no les gusta lo que está haciendo OpenAI, o no les gustan las opciones de los votantes estadounidenses en esta compensación de riesgo/recompensa, simplemente no tienen suerte. Y así, si la gente en Nigeria tiene una preferencia distinta por el riesgo frente a la recompensa, básicamente no hay nada que puedan hacer.
Nate Silver: Parte del argumento también se basa en el hecho de que… creo que si pudieras presionar un botón para detener permanente e irrevocablemente el desarrollo de la IA, pero tienes otra oportunidad de presionarlo en 10 años, esa parte es clave. Y es más fácil decir esto ahora cuando has tenido, A, más conciencia del riesgo asociado a la IA, y B, podría decirse, creo que mucha gente diría que estamos en un período de desarrollo más lento en los modelos de lenguaje a gran escala. Creo que los escenarios de despegue rápido son probablemente bastante menos probables.
Quiero decir, tienes que añadir más y más poder de cómputo, y ahora Sam Altman quiere 7 billones de dólares en chips semiconductores y cosas así. Creo que probablemente habrá algunas mesetas o límites. Así que extraes todo el texto humano de internet. Creo que llegar a capacidades casi humanas frente a capacidades sobrehumanas no es una extrapolación directa. Es una que creo que potencialmente llevaría mucho más tiempo, pero no sé. Estoy tratando de no darle demasiado peso a mi propia intuición.
Rob Wiblin: ¿Qué opinas sobre la cuestión de la legitimidad democrática? ¿Debería haber algún referéndum mundial sobre esto, en un mundo ideal?
Nate Silver: Una idea de Emmett Shear que no se incluyó en el libro, pero que creo que vale la pena mencionar aquí, es la democracia deliberativa. Que se ha intentado de diferentes maneras. Creo que era en Roma o Grecia donde simplemente llamaban a la gente al azar y les decían: “Vas a tener que ser senador. Tienes que ser senador durante un año”. O un sistema de jurado es muy parecido a esto. Hace poco tuve que rogar que me eximieran del deber de jurado en Nueva York diciendo: “Soy escritor. Me voy de gira con mi libro”. Algo así.
Porque te preocupas en un mundo en el que es una especie de muestreo estadístico. Y una encuesta, de una manera extraña, es una versión de esto, ¿no? Eliges una muestra representativa aleatoria de personas. Creo que la democracia es una métrica más robusta de lo que la gente supone.
Rob Wiblin: ¿Puedes explicarlo?
Nate Silver: Creo que el consenso tiene mucho valor. Creo que la sabiduría de las masas tiene valor. Creo que la gente conoce ciertas áreas de su vida. Los votantes tenemos buenos detectores de mentiras.
Sabes, yo nunca votaría por Donald Trump. Votaré por Kamala Harris. Y antes voté por Biden y Clinton. Pero puedes entender cómo un cierto tipo de votante está molesto porque las élites se han vuelto egoístas de diferentes maneras, y no están siendo utilitaristas. Creo que probablemente, desde un cálculo utilitarista, Kamala Harris es mejor por varias razones. Aunque hay que pensar en cuáles son sus opiniones sobre los riesgos existenciales y cosas así. No he visto a la gente hacer esos intentos con demasiada frecuencia.
Pero la gente no vota basándose en el cálculo de su utilidad. En cierto modo sí, tal vez para cosas que les afectan directamente, como los impuestos o determinados programas de beneficios. O las mujeres podrían votar sobre el aborto, o los homosexuales votar sobre los derechos de los homosexuales, o los transexuales sobre los derechos de los transexuales, y cosas así. Pero en cierto modo están votando sobre, por ejemplo, “¿Dónde estoy en este equilibrio? ¿Estoy en el equipo A o en el equipo B?”.
Y creo que a veces los progresistas, los liberales y los demócratas confían demasiado en un determinado modelo de racionalidad, en el que se espera que las personas maximicen el valor, en lugar de estar en un equilibrio de la teoría de juegos, en el que se pregunta: “¿Estás de mi lado? ¿Estás de mi lado defendiendo mis intereses o no?”.
El Partido Demócrata, por ejemplo, ha estado diciendo: “Somos el partido normal. Y si eres raro, vete a ser republicano”. Bueno, en realidad, probablemente la mayoría de la gente es rara según ese enfoque heurístico. Entonces, ¿por qué Kamala no va tras los extraños votantes cripto o los votantes de RFK, Jr. o cosas así? No lo sé.
Rob Wiblin: Lo que creo que la gente no entiende de la democracia es que la gente evalúa si la democracia está logrando sus resultados políticos óptimos. Y la respuesta es que no. Pero la verdadera virtud que tiene es que está reduciendo la violencia. Y esto ya no nos resulta tan evidente, porque países como Estados Unidos y el Reino Unido no han tenido guerras civiles últimamente. Pero si tienes elecciones cada cuatro años y pierdes, entonces piensas: “Lo que debería hacer es irme e intentar persuadir a la gente y ganar dentro de cuatro años”. Pero si no tienes la oportunidad de volver a votar, entonces vas a tomar las armas potencialmente contra el gobierno, si estás lo suficientemente insatisfecho.
Nate Silver: Este es el argumento de Francis Fukuyama sobre por qué cree que la democracia liberal y el capitalismo de mercado prevalecen en última instancia. Porque las personas son intrínsecamente competitivas, y necesitas tener una cierta cantidad de competencia en el mundo.
Por cierto, mi otra sospecha sobre el AE es que creo que tal vez, de la misma manera que el marxismo tergiversa y subestima la naturaleza humana, la gente quiere competir; quieren competir y quieren tener equipos. ¿Y cuál es el nivel óptimo de competencia sana, en el que se protege en cierta medida a los perdedores? Pero la gente no quiere un paraíso utópico.
Rob Wiblin: Quiero hablar un poco sobre la pronosticación electoral. Algo de lo que no te he oído hablar antes —que algunos oyentes pueden haber escuchado ya, y otros no— es de este sistema alternativo de pronosticación electoral llamado las 13 llaves de la Casa Blanca. Quizás sea un poco sádico obligarte a explicar qué es esto, pero ¿podrías explicar cuáles son las 13 llaves?
Nate Silver: Las 13 llaves son un sistema de Allan Lichtman, que es profesor de Gobierno, no sé si es profesor emérito, ahora está jubilado, en la American University de Washington, D. C., que creo que es un ejemplo de la crisis de replicación y la ciencia basura.
Un problema que tienes en la pronosticación de elecciones que es inevitable es que tienes una pequeña muestra de elecciones desde que las elecciones estadounidenses comenzaron a votar en el voto popular en 1860. Antes de eso, las legislaturas estatales nombraban a los candidatos. Es un tamaño de muestra de unas cuantas docenas, que no es tan grande. Y para la pronosticación electoral moderna, el primer tipo de sondeo científico se realizó aproximadamente en 1936, y fue muy malo, por cierto, al principio. Hay una elección cada cuatro años, por lo que tienes una muestra de 22 o algo así.
Así que cuando tienes un tamaño de muestra pequeño y muchos resultados posibles, tienes un problema potencial que la gente podría conocer llamado “sobreajuste”, que es que no tienes suficientes datos para ajustar un modelo multiparamétrico. Y hay diferentes formas de evitarlo; no sé si queremos entrar en la técnica de modelización per se. Pero las llaves de la Casa Blanca es un sistema que afirma predecir perfectamente todas las elecciones presidenciales desde el siglo XIX basándose en 13 variables.
Hay un par de problemas cuando intentas aplicar esto, de cara al futuro. Uno es que muchas de las variables son subjetivas. Entonces: ¿Hay algún logro significativo del presidente en política exterior? ¿Es carismático el oponente? Estas son cosas que, si ya sabes la respuesta, puedes sobreajustar y hacer una especie de manipulación del valor p para decir: “Ahora podemos predecir perfectamente todas las elecciones”, cuando ya sabemos la respuesta. No es tan difícil “predecir” correctamente cuando el resultado ya se conoce.
Así que cuando las elecciones avancen, Allan Lichtman emitirá su predicción. Pero no es obvio. Tienes que esperar a que suba al escenario, o que aparezca en YouTube ahora, y diga: “Esto es lo que predigo aquí, basándome en mi juicio”. Así que es una cuestión de juicio sobre muchos de estos factores.
Además, ha mentido en el pasado sobre si estaba tratando de predecir el voto del Colegio Electoral o el voto popular, y cambiaba de opinión según lo que fuera correcto o incorrecto. Pero es un buen vendedor; toma un sistema que es una especie de erudición con alguna ventaja cualitativa o cuantitativa mínima, y trata de hacer que parezca algo más riguroso de lo que es.
Rob Wiblin: Entonces, tiene 13 factores diferentes. Hay tantas cosas que son una locura en esto. Ni siquiera necesitas mirar los datos empíricos para decir que esto es ciencia basura y una locura total. Así que tiene 13 factores que supongo que ha sacado de… O sea, en la era moderna, solo hay como una docena, como mucho dos docenas de elecciones en las que podrías pensar, y vamos a decir que ahora es todo igual que en el siglo XIX. Eso parece una locura.
Así que tiene 13 factores diferentes. Casi todos ellos vienen en un continuo. Un candidato puede ser más o menos carismático; no es solo uno o cero, pero reduce todo a que el candidato es carismático o no lo es; o la economía es buena, la economía es mala, así que descarta casi toda esta información. Tiene tantos factores, a pesar de que casi no tiene datos para decir cuáles de estos entran. No lo ha cambiado, creo, desde 1980 o algo así, cuando lo inventaron.
Nate Silver: Sí. Y dice, por ejemplo, que Donald Trump no es carismático. Por cierto, es un demócrata liberal. Y, bueno, no soy fan de Donald Trump, pero, literalmente, presentó un reality show. Era presentador de un concurso. Creo que hay un cierto tipo de carisma que se transmite con eso. Y eso es lo único que probablemente sí tiene, que es carismático. Quizás no de la manera que le gustaría a un demócrata, pero es un tipo divertido. Es un hombre espectáculo, literalmente. Así que no sé cómo no le darías esa llave, por ejemplo.
Y mira, a veces tienes una situación en la que tienes una muestra pequeña. No es una idea terrible decir, tomemos un montón de marcos diferentes y saquemos una media. En realidad, no es tan mala idea. Aquí están todos los enfoques razonables que podríamos adoptar, y haz una media mental de los diferentes modelos que podrías adoptar.
Pero quieres heurísticos que construyas con antelación y a los que no tengas que aplicar subjetividad. Incluso para los pronosticadores, creo que unas elecciones pueden ser un asunto emocional. Puedes tener una preferencia personal por el resultado, o puedes involucrarte demasiado en tus pronósticos, donde probablemente tengas más oportunidades en el futuro si tu pronóstico se percibe como acertado.
Así que quieres establecer reglas por adelantado que no puedas cambiar más tarde, más o menos, a menos que algo esté literalmente mal. Como en el modelo electoral Silver Bulletin que tiene varios miles de líneas de código. Si detectáramos algún error real, un signo de menos en lugar de un signo de más, entonces tendríamos que reconocerlo y cambiarlo, potencialmente.
Pero creo que eso va en contra del propósito de una pronosticación rigurosa. Por cierto, ese modelo ya estaba equivocado este año, porque decía que Joe Biden derrotaría a Donald Trump, y Joe Biden estaba perdiendo tan estrepitosamente que tuvo que abandonar la carrera. Así que también tienes un problema de sesgo de supervivencia al evaluar este pronóstico.
Rob Wiblin: Sí. Creo que un estadístico puede echar un vistazo a este modelo y decir que no puede ser correcto; debemos poder hacerlo mejor. Pero es increíblemente popular. Cada cuatro años, recibe mucha atención. Creo que solía llamar más la atención en los años 90. Supongo que a la gente le preocupa que el mundo académico carezca de credibilidad ahora, pero creo que nos olvidamos de lo mal que se evaluaba la evidencia en los años 80 y 90 y en épocas anteriores.
Nate Silver: En cierto modo, se ajusta al estereotipo de lo que se supone que debe proporcionarte un experto, ¿no? Donde dice: “Aquí está lo oculto…”. Es decir, si vas y miras los libros de no ficción más vendidos, todos los subtítulos son algo como: “El factor oculto detrás de X”, o “El factor secreto detrás de X”. Es un sistema muy bien comercializado, donde te dicen: “Yo, el experto, voy a revelar estas llaves secretas. Y si las juntas, puedes abrir la Casa Blanca”, básicamente.
Mientras que en el caso del modelo de Silver Bulletin, es solo un promedio elegante de encuestas, básicamente. Y en realidad, es un problema muy difícil estadísticamente debido a la forma en que se correlacionan las encuestas, y hay muchas cosas que hay que averiguar. Pero sí, solo las encuestas, básicamente. Y nunca vamos a estar seguros de cuáles pueden ser probabilísticas. En realidad, es un poco más difícil de vender a la corriente principal, creo.
Rob Wiblin: Sí. ¿Hay otras cosas muy populares, como las predicciones cuantitativas falsas, que reciban amplia cobertura en los medios y que sean igual de cuestionables que las 13 llaves?
Nate Silver: Tiene que haberlas. Está El día de la marmota: si la marmota ve su sombra y cosas así. Algo así…
Pero creo que la pronosticación de elecciones es algo único en cuanto a su ritmo. Se celebran cada cuatro años. Quiero decir, hay algunas cosas, si estás viendo un partido de fútbol, ya sea americano o europeo, verás “claves del partido” y cosas así. Y a menudo son cosas realmente obvias, como: “El equipo que anote más puntos ganará”; “El equipo que gane más yardas ganará, probablemente”. Así que hay algo de eso: estás diciendo cosas obvias y haciéndolas parecer profundas. Creo que eso es probablemente algo universal.
Pero las elecciones están en este espacio realmente extraño en el que ocurren una vez cada cuatro años, o una vez cada dos años, contando las elecciones intermedias, que es suficiente para tener cierta regularidad, pero nunca para tener certeza.
Rob Wiblin: Sobre ese tema, hace poco vi un artículo titulado “Evaluar la fiabilidad de los pronósticos probabilísticos de las elecciones presidenciales de EE. UU. puede llevar décadas”. Quizás lo hayas visto.
Nate Silver: Sí, tuiteé al respecto.
Rob Wiblin: Sí. Le pedí a Claude que hiciera un breve resumen del artículo y algunos de los puntos que extrajo fueron:
Las elecciones presidenciales son eventos poco frecuentes. Ocurren solo cada cuatro años. Esto proporciona muy pocos puntos de datos para evaluar los métodos de pronosticación. Los autores demuestran a través de simulaciones que se necesitarían 24 ciclos electorales, o 96 años, para mostrar con una confianza del 95 % que un pronosticador con una precisión del 75 % fue mejor que las conjeturas aleatorias, y que comparar el desempeño de pronosticadores rivales con niveles de precisión similares podría llevar miles de años.
¿Qué opinas de eso?
Nate Silver: Pues les propongo una apuesta. Si creen que no es mejor que el azar, me doy por satisfecho. O sea, ahora mismo, nuestro modelo —estamos grabando esto a principios de septiembre, para que quede claro— está cerca del 50/50. De modo que si creen que eso no es mejor que lanzar una moneda al aire, entonces estoy dispuesto a hacer una apuesta considerable con estos académicos. Porque, mira… ¿Puedo decir palabrotas en este programa?
Rob Wiblin: Claro.
Nate Silver: Es como, vale, tienes un evento que se celebra cada cuatro años. Conseguir una muestra estadísticamente significativa llevará mucho tiempo. Obviamente. No tienes que desperdiciar un espacio en una revista académica con esta observación increíblemente banal y obvia.
Pero yo diría un par de cosas. Una es que cuando realmente tienes un tamaño de muestra que no se limita a las elecciones presidenciales, sino que también incluye las primarias presidenciales y las elecciones intermedias… en las elecciones intermedias, hay aproximadamente 500 candidaturas al Congreso cada año. Por supuesto, están correlacionadas, lo que hace que esto sea bastante complicado a nivel estructural, pero los datos son un poco más robustos de lo que se podría decir.
Pero también, están un poco atrapados en esto… Lo considero el paradigma de la crisis de replicación… alcanzas un número mágico cuando es del 95 %, y entonces es verdadero en lugar de falso. Y eso simplemente no… O sea, soy un bayesiano, ¿no? No pienso de esa manera.
Uno de los autores del artículo decía que, basándose en una sola elección, no se puede saber si… Así que en 2016, los modelos tenían a Trump con una probabilidad de entre el 29 % —ese era un modelo de FiveThirtyEight— y menos del 1 %, digamos el 0,1 %. Y dijeron que realmente no se puede saber con certeza qué modelo es correcto o incorrecto a partir de una sola elección. Y, de hecho, no es cierto si aplicas el teorema de Bayes, y tienes una probabilidad del 0,1 % de que ocurra en un modelo que nunca se ha publicado antes, y es incorrecto. Las probabilidades de que ese modelo sea inferior son apabullantes, basándonos en ese tamaño de muestra de uno, frente al modelo del 29 %.
Así que, para mí, indica cierto tipo de pensamiento académico rígido, que no es lo suficientemente rápido para lidiar con el mundo moderno. En el mundo moderno, para cuando demuestras algo conforme a un estándar académico, el mercado ya lo ha valorado. La ventaja que podrías obtener de eso ya se ha materializado.
Es interesante ver el altruismo eficaz, que surge del mundo académico, pero entiende que se están produciendo debates rápidamente en la esfera pública, en los foros de AE, por ejemplo. Y creen firmemente en tener presencia en los medios de comunicación. Y esa parte me gusta: que la velocidad del mundo académico no es realmente adecuada para el mundo actual.
Rob Wiblin: Sí. Supongo que los autores de este artículo no querrían decir que tu modelo no es mejor que lanzar una moneda al aire. Supongo que lo que dicen es que, suponiendo que hubiera dos modelos que fueran igualmente buenos —tu modelo y otro que fuera un poco diferente, que diera un poco más de peso a los fundamentos frente a las encuestas o algo así— y que le diera a Trump una probabilidad del 27 % cuando tú le dabas una del 29 %. Sería difícil distinguir empíricamente cuál de los dos es mejor, por lo que tal vez tengas que recurrir a la teoría, y eso no será realmente decisivo. ¿Qué opinas de eso?
Nate Silver: Me inquieta un poco porque somos los únicos… El legado de los modelos de FiveThirtyEight, y ahora de Silver Bulletin, es un caso bastante inusual de tener pronósticos de dominio público donde hay un historial completo de cada pronóstico que hemos hecho, tanto en política como en deportes, desde 2008. Y están muy bien calibrados: nuestras probabilidades del 20 % se dan el 20 % de las veces. Consigues un tamaño de muestra mucho mayor con los deportes que con las elecciones.
Pero sí, se trata de esta abstracción de que básicamente ningún otro modelo en este espacio tiene un historial de más de una elección. Y también tenemos primarias presidenciales y cosas así; ya hay un historial bastante largo.
Y creo que los académicos interesados en el discurso público apreciarían más lo difícil que es hacer pronósticos reales cuando te expones a condiciones de incertidumbre y los publicas para que puedan ser examinados y observados, comparado con comprobar un modelo de manera retrospectiva.
Y mira, creo que probablemente hay cierto grado de envidia, donde… La hay, ¿no? Tomas estas ideas y las popularizas y tienes una audiencia bastante grande. Pero también estoy tomando riesgos cada vez que hago un pronóstico. Hemos hecho pronósticos de 70/30 que se han considerado erróneos, y estás asumiendo un riesgo para tu reputación. Así que no sé.
Rob Wiblin: Sí. Supongo que la verdadera razón por la que me importan tus pronósticos y creo que son creíbles no es tanto el historial como el hecho de que he mirado y entiendo cómo funciona internamente. Creo que sí, que ese es el proceso que realmente genera el resultado, que ahí es donde entra la aleatoriedad.
Pero este artículo me hizo darme cuenta de que tal vez no lo entendía tan bien como pensaba. Así que, dado que en la era moderna solo se dispone de una docena o dos docenas de puntos de datos en los que pensar, ¿cómo se calcula exactamente cómo ponderar, por ejemplo, los fundamentos frente a las encuestas, y cómo cambiar eso con el tiempo? Parece que no se tienen suficientes datos para especificarlo con precisión.
Nate Silver: Aquí es donde se trata tanto de un arte como de una ciencia, sin duda. Hay cosas como, probablemente me equivoque al ponderar menos los fundamentos, es decir, cosas como la economía o si están en el poder, porque hay un mayor grado de libertad para la investigación en eso. Hay docenas de variables económicas que se publican, o en realidad muchas más; hay miles de variables que publica la Reserva Federal u otras organizaciones y que se actualizan trimestralmente o con más frecuencia.
Así que parte de ello es tener experiencia en la construcción de modelos. No quieres ajustar todos los parámetros a los datos validados de manera retrospectiva; quieres decir, déjame crear un buen indicador de la economía. Por ejemplo, ¿cómo crearía alguien que intenta determinar si la economía está en recesión (esa es la idea) un indicador de la economía que no sea binario (entre 1 y 0), sino fluido? Y luego, una vez elegida esa definición de la economía, combinarla con las encuestas y ver qué tal funciona. Y luego, cuando haces eso, entender que probablemente todavía hay un poco más de sobreajuste en una parte del modelo que en la otra.
Así que tienes muchos puntos de decisión si estás diseñando un modelo complejo como este. Son, de nuevo, varios miles de líneas de código. Podrías tener como 40 o 50 puntos legítimos de decisión que tomar. Creo que vale la pena tomar notas mentales sobre en qué dirección podrían equivocarse esas diferentes decisiones, ¿no? Si tomas una decisión como: “Esta es una forma un poco más limpia de hacerlo, pero podría ser un poco excesivamente confiada o podría prestarse a un exceso de confianza”, tal vez la siguiente decisión que tomes sea: “Vale, esta va a ser una suposición más cautelosa”.
Pero es difícil. Creo que cualquiera que diga que solo se introducen datos en una computadora, quiero decir, tal vez con la IA se pierde legibilidad, pero sigo trabajando en un espacio en el que, si lees Silver Bulletin, habrá publicaciones de unas 2000 palabras que explican: “Esto es lo que está haciendo el modelo. Aquí está el porqué, cuando diseñé el modelo, lo diseñé de esta manera. Aquí está la razón por la que esa suposición puede o no ser correcta, en este momento. Y puedes ver los datos sin procesar antes de que lleguemos a cierta etapa del modelo y hagamos una suposición diferente”.
Pero ese es el proceso de pensamiento que realmente tienes en el mundo real. He dado consultoría de vez en cuando para términos financieros, y ellos dicen: “Queremos tu modelo pero también tu experiencia y tu cerebro”, por así decirlo. Un modelo es una herramienta o un dispositivo. Es importante no utilizar el modelo como si fuera necesariamente oracular. Es un mecanismo disciplinario que te obliga a pensar en las preguntas con más rigor.
Ahora bien, cuando te adentras en entornos realmente ricos en datos, como algunas aplicaciones deportivas, tenemos miles y miles de juegos para poner esto a prueba. Nos preocupa un poco el sobreajuste del modelo, pero en su mayor parte, puedes ser más estrictamente empírico.
No puedes hacer eso en este tipo de problemas donde el tamaño de la muestra es reducido, que son más parecidos a los problemas a los que te puedes enfrentar en el AE o el racionalismo, ¿no? Dónde se trata de cómo hacer una buena estimación. A veces puedes modelar partes de eso de forma muy rigurosa y otras no. Esperas que las partes que son más rigurosas tengan un efecto multiplicador mayor.
Algo que es muy importante es comprobar la robustez. Si hay dos formas razonables de especificar un parámetro o una función en el modelo, y dan respuestas radicalmente diferentes, entonces es casi seguro que tienes que encontrar alguna forma de hacer un promedio de esas dos. Si hay dos formas diferentes que te dan la misma respuesta, entonces puedes simplificarlo diciendo: “Voy a usar solo una de ellas, porque no necesitamos el grado de libertad extra” o lo que sea. Así que comprender eso —cuando pones a prueba un modelo y lo robusto que es a los cambios en los supuestos— es la habilidad. Esa es la experiencia y el arte, supongo, de la construcción de modelos.
Rob Wiblin: Sobre esta cuestión de lo bajo que es realmente el entorno de datos, el artículo señala que podrías pensar que estás pronosticando 50 estados diferentes, por lo que en realidad tienes 50 puntos de datos diferentes, pero en realidad no es así, porque son cosas que están muy correlacionadas. Si aciertas en la mitad, probablemente también acertarás en la otra mitad. Y de la misma manera, si te equivocas con la primera mitad, la otra probablemente también tendrá errores.
Parecía un artículo bastante centrado en Estados Unidos, porque ¿no podrías pensar en esta operación de modelado o en este pronosticador, y van a pronosticar elecciones tanto en Estados Unidos como en el resto del mundo utilizando mentalidades y métodos similares? Entonces, de pronto podrías tener un conjunto de datos mucho mayor sobre lo bueno que es ese modelador para pensar en las elecciones en general. Podrías tener algunas preguntas de validez externa, tal vez la precisión para una sola clase de elecciones podría ser un poco diferente, pero sigo pensando que podrías ampliar el tamaño de la muestra enormemente.
Nate Silver: Sí, sin duda, si consideraras todas las elecciones parlamentarias europeas, por ejemplo.
Hay que tener cuidado. En la India, por ejemplo, las encuestas son increíblemente inexactas. Se desvían una media de unos 11 puntos, mientras que en Estados Unidos y Europa la media es de unos tres puntos. La razón es, en parte, que hay muchos grupos étnicos y raciales diferentes. Pero también es un país donde —y estoy estereotipando, y me disculpo, pero he hablado con expertos locales al respecto y he trabajado en eso— no hay una cultura en la que necesariamente seas muy comunicativo con un extraño. Si alguien te pregunta por tus opiniones políticas, tal vez no vayas a revelar tus verdaderas preferencias. Mientras que en las culturas anglosajonas, especialmente en Estados Unidos, tendemos a ser más francos sobre esas cosas.
Rob Wiblin: En cuanto a la cuestión de que la gente trate los pronósticos de forma oracular, ha habido un verdadero auge de los mercados de predicciones. Están Manifold, Polymarket (para el que haces algo de consultoría), Metaculus. He pasado años intentando que la gente preste más atención a estas cosas. ¿Crees que ahora están un poco sobrevalorados? Especialmente los mercados pequeños, en lugar de las grandes elecciones presidenciales, cosas de nicho como: “¿Va a retirar Elon su demanda contra tal o cual persona?”
Nate Silver: Puede haber ocasiones en las que, y esto es cierto, por cierto, en otros tipos de mercados; puede ser cierto en los mercados de apuestas deportivas, por ejemplo, la gente atribuye demasiada sabiduría a los mercados, y se convierte en una especie de lógica circular, ¿no?
Así que durante la Convención Nacional Demócrata, circuló el rumor de que iba a haber una aparición sorpresa. Y, por supuesto, Polymarket, y creo que también Manifold, tenían mercados de apuestas sobre quién sería el invitado sorpresa. ¿Sería Taylor Swift? ¿O algún republicano, como George Bush, apoyando a Kamala Harris?
Sin embargo, el mercado decidió que iba a ser Beyoncé, y estos rumores empezaron a circular. Así que la gente tuiteaba, por ejemplo, que estaba al 80 % para Beyoncé, y luego subía hasta el 96 o el 97 %. Incluso sus representantes tuvieron que enviar un comunicado a TMZ diciendo que ella ni siquiera estaba en la misma ciudad donde se celebraba la convención.
Así que podría haber sido un caso de lógica circular, en el que todos piensan que los demás saben algo. Tienes este tipo de falso punto focal.
Sin embargo, en su mayor parte, para los mercados de apuestas políticas, finalmente tienes mucha más liquidez. Son muy diferentes. Para mí, los dos principales son Polymarket y Manifold. ¿O Manifest? Manifold. Manifest es una conferencia que celebró Manifold Markets. Manifold es dinero ficticio, pero tiene una comunidad increíblemente dedicada que se preocupa mucho por la reputación y por el riesgo que se corre en el juego. Polymarket tiene liquidez real y está bien estructurado. Algunos de los mercados anteriores te hacían tener problemas asimétricos con las apuestas en resultados del 2 % y cosas así. Actualmente, estos mercados están muy bien estructurados y tienen suficiente volumen y liquidez para ser bastante mejores.
Sé que, a medida que todo se ve afectado por la política, las empresas financieras, los bancos de inversión y los fondos de cobertura quieren tener en cuenta el riesgo político, ¿cierto? Si intentas pronosticar los tipos de interés a largo plazo, el hecho de que Trump o Harris sean presidentes es bastante relevante. O la política exterior entre EE. UU. y China, o el valor a largo plazo de Nvidia, o cosas por el estilo. El mercado te exige pronosticar el riesgo político, y ahora tienes algunas herramientas para ayudarte con eso.
Rob Wiblin: Uno de mis colegas ha sido un fanático de los mercados de predicciones a lo largo de los años, pero ahora está un poco preocupado de que estén sobrevalorados. Me escribió esto:
Es útil crear modelos sobre cuestiones complejas. Pero que te den un número no significa necesariamente que hayas aprendido mucho. Y los mercados de predicciones pueden transformar cosas que apenas son poco más que conjeturas en números que tienen mucha más respetabilidad que las opiniones de unas pocas personas. Pero a veces no son mucho más que eso. Además, las puntuaciones de Brier, incluso de los superpronosticadores, no son tan buenas. Así que la pronosticación se parece más al póquer que al ajedrez: los expertos pueden tener ventaja, pero a menudo sufren rachas de pérdidas muy largas, incluso contra aficionados.
¿Estás de acuerdo con eso?
Nate Silver: Estoy de acuerdo con eso, sin duda. En los mercados en general, incluido el juego, puedes tener pequeñas ventajas que persisten durante mucho tiempo si eres muy bueno, o grandes ventajas que persisten durante poco tiempo si eres muy bueno, pero nunca tienes una ventaja larga que persista durante mucho tiempo. Hay demasiada eficiencia en el mercado.
También puedes tener recursividad. Algunas personas dicen: “¿por qué no utilizas los mercados de predicciones como datos de entrada en el modelo de Silver Bulletin?”. Pues bien, el modelo de Silver Bulletin a veces mueve los mercados de predicciones, por lo que tienes cierta recursividad.
Y puede ser fácil decir: “Todos estos indicadores independientes sugieren que la carrera va a ir por este camino”, cuando en realidad no hay independencia; cuando en realidad, la razón por la que los expertos piensan que va a ser Harris o quien sea es porque los mercados de predicciones lo dicen. Y la razón por la que los mercados de predicciones dicen eso es porque los expertos lo dicen. Y si luego tienes modelos de encuestas que no son independientes de eso, entonces terminas en un lugar donde puedes volverte demasiado confiado y tener estos grandes riesgos asimétricos de cola.
Rob Wiblin: Sí, es interesante. Ese es un caso en el que posiblemente el pronóstico sería más preciso si se añadieran otros indicadores como los expertos o los mercados de predicciones, pero sería menos útil en cierto modo, porque es simplemente fusionar lo tuyo con otras cosas de una manera poco clara.
Nate Silver: Sí. Esto es otra cosa que se aprende construyendo muchos modelos reales, es la cantidad de… El término de los traders es “alfa”, la cantidad de valor que proporcionas. (Puede que no sea del todo correcto).
Pero un indicador que está altamente correlacionado con otros indicadores… por ejemplo, digamos que si tuvieras la media de las encuestas, la media de las encuestas más el 0,1 % para el demócrata será casi tan preciso como la media de las encuestas, pero no proporciona ningún valor adicional, porque es solo una función lineal de la media de las encuestas. Mientras que algo como el número de carteles en las casas de una campaña política en Manassas, Virginia, o algo así, no está en absoluto relacionado con las encuestas y puede ser un predictor muy pobre por sí solo, pero podría proporcionar un 0,01 % extra de R2 o algo así.
Rob Wiblin: En mi mundo, las personas que han obtenido la calificación de “superpronosticador” tienden a ser tratadas un poco como oráculos, o se da mucho peso adicional a sus opiniones.
Hubo un torneo de pronósticos, del que hicimos una entrevista: el Torneo de Persuasión de Riesgo Existencial. Ezra Karger lo organizó, hablas de eso en el libro.
Y en ese experimento, descubrieron que los superpronosticadores que no sabían nada de la IA pensaban que había una probabilidad del 0,2 % de que la IA causara la destrucción —a grandes rasgos, una probabilidad del 0,2 %—, mientras que los expertos en IA que no eran superpronosticadores pensaban que más bien había una probabilidad del 2 % de que la IA causara la extinción para una fecha que no recuerdo. Y, para mi sorpresa, dijiste que en ese caso probablemente te inclinarías por los expertos en IA en lugar de por los superpronosticadores. ¿Por qué?
Nate Silver: Creo que los expertos en IA tienen suficientes bases en la comunidad de la racionalidad y son conscientes del tipo de sesgos cognitivos que tienen los pronosticadores, por lo que creo que en realidad están incorporando esos heurísticos en sus modelos, en su mayoría. Les doy crédito por ser un poco supernerds, probablemente en muchos casos, nerds con un alto coeficiente intelectual que ya tienen en cuenta eso, pero luego añaden conocimiento del campo.
Por lo general, el problema es que si tienes la perspectiva interna, tienes más información, pero tus heurísticos pueden ser peores por varias razones, que van desde que nunca has estudiado realmente metacontenido sobre pronosticación, hasta el hecho de que estás demasiado cerca de los datos y puedes tener incentivos perversos, hasta cierto punto.
Rob Wiblin: Bueno, es posible que te hayan seleccionado. Quizá eres un experto en IA porque tenías esta opinión.
Nate Silver: Sí, obviamente es un problema de “cada martillo parece un clavo”. ¿Lo estoy diciendo bien?
Rob Wiblin: Sí, creo que es correcto. Cada clavo parece…
Nate Silver: “Cuando tienes un martillo, todo parece un clavo” es la metáfora correcta, supongo. Así que sí, creo que si solo encuestas a personas que están en el campo del riesgo asociado a la IA… Pero creo que la encuesta de Katja Grace también encuesta a ingenieros de los laboratorios de IA, y no solo a personas que están en seguridad de la IA per se. Y también están bastante preocupados.
Rob Wiblin: Dicen que la probabilidad es de más del 2 %, creo.
Nate Silver: Sí. En algunos casos, las medianas podrían llegar hasta el 5 o el 10 %. De modo que sí, le doy crédito a la comunidad más amplia del AE/racionalidad por tener mejores metaheurísticos que los típicos expertos, supongo.
Rob Wiblin: Algo que dices en el libro que me sorprendió es que los inversionistas de capital de riesgo hablan mucho de asumir riesgos y revolucionar el mundo y cambiarlo todo y estar dispuestos a ponerlo todo patas arriba, pero en realidad crees que no asumen tanto riesgo. ¿Por qué?
Nate Silver: ¿Te gusta el básquetbol o los deportes en general?
Rob Wiblin: A veces el fútbol.
Nate Silver: En los deportes estadounidenses, tenemos el draft, que es un mecanismo para darle al peor equipo más igualdad competitiva a largo plazo. Si eres el peor equipo, te toca la primera elección. Por lo tanto, te llevas al mejor jugador.
Para las principales empresas de Silicon Valley, es casi lo contrario, ¿no? Si eres Andreessen Horowitz o Founders Fund o Sequoia, y tienes mucho éxito, entonces te toca la primera elección del draft: el próximo fundador que venga de Irlanda o Sri Lanka o de cualquier otro lugar querrá trabajar con esta empresa que tiene mayores efectos de red.
Marc Andreessen incluso me dijo que su éxito es una especie de profecía autocumplida: tienen acceso a los mejores fundadores de todo el mundo; el valor esperado de cualquier apuesta es bastante alto. Y sí, hay una gran varianza, pero de hecho me dio algunos datos. Y si haces los cálculos, casi todos los fondos que hacen van a ganar algo de dinero. El riesgo de perderlo todo es en realidad muy muy bajo.
Rob Wiblin: ¿Porque están diversificados en cientos de diferentes…?
Nate Silver: Diversificados. Tienes un fondo que tiene 20 empresas al año. Y, por cierto, no es cierto que sea totalmente impredecible. Hay muchos casos de 1x y 2x, o incluso se recupera la mitad del dinero. Eso ayuda bastante a largo plazo. Así que es un negocio muy sólido en el que tienen garantizado obtener ganancias realmente buenas cada año. Mira, creo que muchos de ellos son tipos de personalidad arriesgada, pero tienen un negocio que es casi demasiado bueno para fracasar.
Mientras que un fundador puede estar haciendo una apuesta que en principio es de valor esperado positivo, pero puede que su vida no sea tan buena la mayor parte del tiempo. Comprometerse con una idea que tiene un horizonte temporal de 10 años que resulta ser un completo fracaso algunas veces, se traduce en una salida moderada después de mucho esfuerzo la mayoría de las veces, y tiene una probabilidad de 1 entre 1 000 de que te conviertas en el próximo Mark Zuckerberg, o de 1 entre 10 00: no es tan obvio que sea un buen negocio, dependiendo del grado de aversión al riesgo que tengas. Y tienes que tener cierta predisposición a asumir riesgos, o ignorancia del riesgo, como yo lo llamo, para fundar una empresa en un área que no ha logrado tener éxito en el mercado y que tiene un horizonte temporal muy largo.
Rob Wiblin: Al leer esto, me pregunté si los inversionistas de capital de riesgo no están abusando de los fundadores. ¿Por qué están en esta relación en la que los inversionistas asumen tan poco riesgo, pero obtienen un rendimiento alto, casi garantizado? Los fundadores están tomando un enorme riesgo personal. También les va muy bien a veces, pero la mayoría de las veces no les va tan bien. Asumen mucho más riesgo que los inversionistas.
¿Por qué los inversionistas de capital de riesgo no les dan un salario más estable, como darles 200 000 dólares al año para que estén más asegurados contra el riesgo de que su negocio vaya mal, dado que pueden permitírselo fácilmente?
Nate Silver: Sí, es interesante. Quizá haya oportunidades para diferentes modelos de negocio de capital de riesgo. Quizá el inversionista que tenga un desencuentro importante con una de las grandes firmas de capital de riesgo debería probar un modelo alternativo, que sea potencialmente un poco más favorable para los fundadores, o en el que se obtenga más capital desde el principio.
Creo que a veces quieren fundadores que tengan más hambre, que duerman en la casa del grupo y cosas así. Me pregunto, y creo, francamente —de nuevo, no soy muy políticamente correcto—, pero creo que tienen que estar echando de menos el talento de fundadoras que eran mujeres, o fundadores que no eran hombres blancos o asiáticos, básicamente. Quiero decir, eso tiene que ser cierto.
Rob Wiblin: Algo que explicas en el libro es que los inversionistas de capital de riesgo hablan de ser muy contrarios, de ser diferentes a los demás, pero en realidad crees que son muy conformistas, que tienden a ser muy conformistas dentro del capital de riesgo. ¿Por qué es esa la mejor estrategia, en lugar de hacer lo que es diferente de lo que todos los demás están financiando, para poder obtener oportunidades nuevas y diferentes?
Nate Silver: Por un lado, no creo que este mercado sea necesariamente hipereficiente. Es un retorno de la inversión tan bueno si eres una empresa del decil superior, que no creo que estén optimizando todos los ángulos necesariamente. Creo que están acertando en la heurística principal, que es: tener un horizonte temporal largo y apostar por empresas que muestren importantes tendencias al alza. Si haces suficientes apuestas de ese tipo, el valor esperado es muy alto de media. Y se equivocan mucho en las cosas que están al margen.
También hay otras cosas, así que es muy difícil. No se puede realmente apostar en corto por una empresa en fase inicial, por lo que es una cultura en la que no se da mucha retroalimentación negativa. Y todos invierten y reinvierten en diferentes etapas de las empresas de los demás, por lo que tienen muchos intereses correlacionados. Creo que una de las razones por las que les molestan tanto las críticas en comparación con los tipos de los fondos de cobertura es que estos últimos siempre están buscando dónde se equivoca la sabiduría convencional; son críticos y están acostumbrados a ser criticados. Mientras que Silicon Valley es una cultura en la que no se critica tanto.
También hay que tener en cuenta que son pocas personas. El número de inversionistas de capital de riesgo que realmente son personas influyentes es de un par de docenas como máximo, probablemente. Mientras que el número de personas influyentes en Wall Street, el mundo de los fondos de cobertura/bancos de inversión/capital privado de Nueva York es de cientos o miles, probablemente.
Así que la escala es realmente pequeña, y mantener las relaciones grupales de alguna manera es… Lo que están tratando de hacer es predecir el comportamiento de sus amigos. Son casi como los influencers, que van al nuevo club de moda y quieren asegurarse de que sus amigos se la pasen bien. Si ya dejó de ser la novedad, perderán. Si se adelantan demasiado a la tendencia, perderán. Es más una actividad social de lo que la gente cree. Y es un grupo pequeño y muy unido.
Rob Wiblin: Última pregunta: En el mundo de los inversionistas de capital de riesgo, dices que la razón por la que tienen que agruparse tanto es que no quieren ser el 100 % del financiamiento de ninguna empresa a medida que amplía su escala.
Así que es un gran problema para ellos. Imagina que hacen una gran inversión en una empresa que tiene mucho potencial, pero que es extraña de alguna manera. Hablas de cómo una fundadora negra podría ser un ejemplo de esto. Donde alguien piensa que este negocio tiene un gran potencial; sin embargo, piensan que otros capitalistas de riesgo no estarán interesados en financiarlo debido a sus prejuicios, por ejemplo. Y por eso no quieren entrar, porque esta empresa no podrá recaudar suficiente financiamiento de suficientes grupos diferentes para pasar por su serie B, serie C, etc.
Los inversionistas de capital de riesgo podrían resolver este problema individualmente si estuvieran dispuestos a asumir más riesgos. Si estuvieran dispuestos a decir: “Estoy dispuesto a apostar al 100 %. Estoy dispuesto a respaldar a esta persona al 100 %, y aunque a otros inversionistas no les guste, voy a apoyarla con todo mi dinero. Y aunque eso me exponga a una menor diversificación, estoy dispuesto a hacerlo”. ¿Deberían hacerlo?
Nate Silver: Estoy de acuerdo. Tienen mucho dinero. Quizá deberían hacer eso más seguido. Quizá son capitalistas de riesgo impulsados por una misión. A algunos de ellos les atraen más empresas que creen que serán buenas para el medio ambiente, por ejemplo, o buenas para el bienestar global y la reducción de la pobreza. Creo que hay margen para una mayor diversificación dentro del modelo de capital de riesgo.
De nuevo, en toda la historia de los juegos de azar o la inversión, es muy raro tener ventajas muy grandes que persistan durante mucho tiempo. Es muy raro. Así que tal vez dentro de 20 años alguien escriba el próximo libro sobre cómo 2024 fue el momento de máximo apogeo del capital de riesgo, antes de que la gente se diera cuenta de que esto era demasiado bueno para ser verdad. Y tal vez entre otras opciones privadas y tal vez los gobiernos y los fundadores tomen venganza —o no venganza, sino que digan: “En realidad, tengo más efecto multiplicador como fundador de lo que se podría suponer”— y tal vez se reduzcan estos rendimientos extraordinarios, impresionantes pero extremadamente altos.
Rob Wiblin: Mi invitado de hoy ha sido Nate Silver, y el libro es On the Edge: The Art of Risking Everything. Muchas gracias por venir al pódcast de 80 000 Horas, Nate.
Nate Silver: Por supuesto. Muchas gracias.
Rob Wiblin: Si te gustó este episodio, aquí tienes otros que podrían interesarte:
Muy bien, El pódcast de 80 000 Horas es producido y editado por Keiran Harris.
Edición de vídeo de Simon Monsour. Ingeniería de audio de Ben Cordell, Milo McGuire y Dominic Armstrong.
Las transcripciones completas y una amplia colección de enlaces para obtener más información están disponibles en nuestro sitio web, y como siempre, Katy Moore se ha encargado de recopilarlos.
Gracias por acompañarnos, nos vemos pronto.