La compra de OpenAI: mucho más de lo que querías saber
El mes pasado, hice un pedido para que los expertos me ayudaran a entender los detalles de la adquisición de OpenAI. Lo siguiente proviene de alguien que ha analizado la situación a fondo, pero que no tiene información privilegiada. Los errores son solo míos.
A principios de la década de 2010, las empresas de IA aún no habían descubierto las leyes de escalamiento, por lo que subestimaron la cantidad de poder de cómputo (y, por lo tanto, de dinero) que se necesitaría para desarrollar la IA. DeepMind fue la primera víctima; fundada originalmente con los altos ideales de priorizar la seguridad y la administración responsable de la Singularidad, se topó con una barrera financiera y se vendió a Google.
Esto asustó a Elon Musk, que no confiaba en Google (ni en ningún patrocinador corporativo) como para dejar la IAG en sus manos. Se asoció con Sam Altman y otros, y así nació OpenAI. Para evitar replicar el fracaso de DeepMind, la fundaron como una entidad sin fines de lucro con la misión de “desarrollar una inteligencia artificial general segura y benéfica para la humanidad”.
Pero al igual que DeepMind, OpenAI necesitaba dinero. Al principio, se las arreglaron con donaciones personales de Musk y otros idealistas, pero a medida que se hizo más evidente todo lo que implicaban las leyes de escalamiento, Altman quiso crear una rama con fines de lucro y buscar inversiones. Musk y Altman tienen diferentes versiones de lo que sucedió después: Musk dice que se oponía al enfoque del lucro; Altman dice que Musk estaba de acuerdo pero quería estar a cargo. En cualquier caso, Musk se fue, Altman tomó el control total y OpenAI fundó una subsidiaria con fines de lucro.
Esta subsidiaria era supuestamente una “empresa de ganancias limitadas”, lo que significa que sus inversionistas tenían un límite de retorno de hasta 100 veces su inversión. Si alguien invertía 1 millón de dólares, podía recibir un máximo de 100 millones, sin importar cuán grande se volviera OpenAI. Esto garantizaba que la mayoría de las ganancias de una Singularidad fueran para la humanidad y no para los inversionistas. Pero ese tipo de entidad no es una estructura corporativa real; lo que hace OpenAI es usar “unidades de participación en las ganancias”, una especie de híbrido extraño entre acciones y bonos que es la clave, según OpenAI, de lo que hace el modelo de empresa de ganancias limitadas.
No es inusual ni ilegal que las entidades sin fines de lucro posean entidades con fines de lucro. La empresa de ropa para actividades al aire libre Patagonia es un ejemplo típico. Su multimillonario fundador cedió sus acciones a un fideicomiso con fines ecologistas. Patagonia opera de forma respetuosa con el medio ambiente y destina sus ganancias a la protección del medio ambiente. En teoría, OpenAI podría hacer algo similar.
Ni siquiera es ilegal que una entidad sin fines de lucro venda acciones de una entidad con fines de lucro de la que sea propietaria. Solo tiene que argumentar que sería más conveniente para su propósito filantrópico tener más liquidez que seguir siendo titular de las acciones.
Entonces, ¿por qué OpenAI no está conforme con su situación actual? Ya nos han dado la respuesta: hace que sea más difícil vender acciones, o hace que las acciones valgan menos (hasta tal punto que en una reciente ronda de financiamiento, los participantes hicieron que el dinero estuviera supeditado a un cambio en la estructura). Pero, ¿por qué haría esto?
Esta es la parte de la que estoy menos seguro, pero aquí van algunas suposiciones generales.
El consejo de la entidad sin fines de lucro sigue controlando la empresa. El consejo original incluía idealistas que obtuvieron puestos a cambio de donaciones tempranas a la entidad sin fines de lucro. Cuando esta facción empezó a tener dudas y despidió a Altman en noviembre de 2023, puso de manifiesto el peligro (para los inversionistas) del control ejercido por la entidad sin fines de lucro. Cuando Altman regresó, reemplazó a la mayoría de los idealistas por los típicos empresarios de Silicon Valley, mitigando el riesgo. Pero estas personas siguen teniendo la obligación legal de poner el bien de la humanidad por encima del valor para los accionistas, e incluso esta hoja de parra pone nerviosos a los inversionistas.
Si el consejo de la entidad sin fines de lucro vendiera el 51 % de las acciones (incluidos los derechos de gobernanza) a inversionistas externos, podrían eliminar este problema. En cierto sentido, eso es lo que están tratando de hacer ahora. Pero, ¿por qué no pueden hacerlo de forma natural, simplemente vendiendo acciones hasta que hayan vendido el 51 %?
Si no anunciaran que fuesen a hacer esto, los compradores pagarían menos por las acciones, porque les seguiría preocupando que el consejo de la entidad sin fines de lucro siguiera al mando. Pero además, tener el control de OpenAI está fuertemente relacionado con su supuesta misión de garantizar que la IA beneficie a la humanidad. Si sacrificaran ese control de una manera aparentemente tonta (vaya, supongo que la última venta de acciones nos dejó por debajo del 50 %, supongo que eso significa que ya no estamos a cargo), podrían meterse en problemas por incumplir sus obligaciones fiduciarias. Sus perspectivas son mejores si simplemente venden todo de forma transparente a alguien que entienda el trato que está haciendo y esté dispuesto a pagarlo.
Primero creará una nueva empresa fantasma. Siendo realistas, también se llamará OpenAI, pero para evitar confusiones, llamémosla Tejemanejes Altman Sociedad Anónima (TASA). TASA ofrecerá comprar OpenAI LLC a la entidad sin fines de lucro por su valor razonable (algunas fuentes dicen que pretende ofrecer 40 000 millones de dólares). El consejo (conformado por personas leales a Altman cuidadosamente seleccionadas) estará de acuerdo. TASA (una empresa normal con fines de lucro) obtendrá todos los activos corporativos útiles de OpenAI, y la entidad sin fines de lucro recibirá 40 000 millones de dólares, que podrá gastar en beneficio de la humanidad si así lo desea.
¿De dónde sacará Altman esos 40 000 millones? No los tiene que sacar de ningún lado; simplemente ofrecerá a la entidad sin fines de lucro acciones de Tejemanejes Altman.
¿Pero por qué van a valer algo las acciones de TASA, una empresa fantasma sin activos? ¡Porque pronto será propietaria de OpenAI, un emocionante laboratorio de inteligencia artificial de vanguardia!
No sé mucho de finanzas, así que al principio todo esto me pareció una especie de engaño ridículo inspirado en el movimiento perpetuo. Pero al final me convencí de que tenía sentido. Supongamos que OpenAI no está rindiendo como debería porque está atrapada en una rara estructura de gobernanza por su carácter de organización sin fines de lucro; debería valer 100 000 millones de dólares, pero a causa de esa gobernanza solo vale 30 000 millones. TASA podría ofertar el 40 % de sus acciones. Entonces, cuando OpenAI abandone la entidad sin fines de lucro y su valor se dispare de 30 000 millones a 100 000 millones de dólares, ambas partes habrán ganado: la entidad sin fines de lucro habrá recibido 40 000 millones de dólares en acciones de TASA por sus 30 000 millones de dólares en activos (una ganancia de 10 000 millones de dólares) y TASA habrá recibido una participación del 60 % en OpenAI a cambio de nada (una ganancia de 60 000 millones de dólares). Por lo tanto, ¡ambas partes están felices! Supongo que así es como funciona el capital privado.
¿Por qué no puedo yo hacer la misma maniobra y volverme rico sin esfuerzo? Si no tengo un plan para aumentar el valor de la empresa, entonces OpenAI-en-mi-empresa-fantasma vale lo mismo que OpenAI ahora. Por lo tanto, tengo que ofrecer el 100 % de las acciones de mi empresa fantasma para poder pagar por OpenAI. Entonces el trato no tiene sentido: las personas que empezaron con el 100 % de las acciones siguen teniendo el 100 % de las acciones y yo sigo teniendo cero. Quizá lo único que podría pasar es que podría sustituir a Altman como director general, pero esto sería algo malo (soy un director general menos competente que Altman y nadie querría hacer ese cambio). En el caso extremadamente improbable de que el consejo quisiera hacer el cambio, podrían simplemente despedir a Altman y sustituirlo de la forma habitual (si se atrevieran).
En caso de que sí tuviera un plan emocionante para aumentar el valor de la empresa y lograra convencer al consejo, entonces sería un acuerdo de capital privado normal. Las empresas de capital privado a menudo se hacen ricas, pero no es que no hagan ningún esfuerzo, sino que tienen que demostrar que pueden aumentar los rendimientos de la inversión de los accionistas de alguna manera en que la dirección actual (y otros posibles postores) no pueden.
¿Por qué ofrecer más de 0,00 dólares? El consejo de la entidad sin fines de lucro está lleno de sus adeptos. Votarán sí a todo lo que proponga. Entonces, ¿por qué gastar dinero?
Porque es ilegal que una entidad sin fines de lucro venda activos por menos de lo que valen. Si no fuera ilegal, cualquiera podría saquear una organización benéfica para llenarse los bolsillos. Si los miembros del consejo aprobaran una oferta injustamente baja, podrían ser acusados de incumplir sus obligaciones fiduciarias (en este caso, su deber de llevar a cabo la misión de la organización de beneficiar a la humanidad).
Los reguladores pertinentes son los fiscales generales de California (donde opera OpenAI) y Delaware (donde está registrada). Intentan no cuestionar demasiado las decisiones de los consejos directivos de las empresas y limitan su intervención a casos claros de fraude que no tienen ni una hoja de parra de honestidad. Pero 0,00 dólares ni siquiera tendría esa hoja de parra. Así que Altman tiene que averiguar cuál es la cifra más baja que puede ofrecer y que le sirva de hoja de parra al consejo, para que parezca que están aceptando una oferta justa y tratando de beneficiar a la humanidad.
¿Cuál sería esa cifra? Una ronda de inversión reciente valoró a OpenAI en 157 000 millones de dólares, siempre y cuando escapara de la entidad sin fines de lucro. Debe valer menos que eso cuando todavía forma parte de dicha entidad, pero tal vez no mucho menos, y TASA debería pagar una suma entre el valor de la entidad sin fines de lucro y el valor de la entidad con fines de lucro (de modo que ambas partes se beneficien del acuerdo).
Altman había planteado anteriormente 40 000 millones de dólares, cifra que a la mayoría de los observadores les pareció demasiado baja, quizá demasiado baja incluso para servir de hoja de parra.
Elon Musk ofreció recientemente 97 400 millones de dólares a la entidad sin fines de lucro por OpenAI. Endulzó el trato garantizando que dicha entidad seguiría teniendo una participación mayoritaria.
Corre el rumor de que esto no fue más que una estratagema. Musk sabía que Altman tenía al consejo en el bolsillo y que rechazarían su oferta. Pero también sabía que esto complicaría sus intentos de parecer honestos ante los reguladores. ¿Qué persona honesta rechazaría una oferta de 97 000 millones de dólares para aceptar una de 40 000 millones?
La situación no es una causa perdida. El consejo podría intentar decir algo como: “Bueno, Elon Musk es una persona demente que está desmantelando el gobierno federal con una motosierra; nosotros, las personas altruistas que actuamos en beneficio de la humanidad, creemos que vale la pena perder 57 000 millones de dólares para mantenerlo alejado del panel de control del dios máquina”. A decir verdad, esa es una hoja de parra bastante buena.
Esta estrategia es arriesgada y, siendo realistas, Altman la complementará incrementando su oferta. He oído rumores de una nueva oferta en la que la entidad sin fines de lucro mantiene una participación mayoritaria, pero no encuentro una fuente creíble.
¡No estamos seguros!
La misión de la entidad sin fines de lucro era crear IA de una manera que beneficiara a la humanidad.
Si vendieran la empresa, podrían obtener 40 000 millones de dólares (o lo que sea). Se pueden hacer muchas obras benéficas con 40 000 millones de dólares. Pero el propósito de la entidad sin fines de lucro no es hacer obras benéficas genéricas. Se supone que debe crear IA de una manera que beneficie a la humanidad.
No cabe duda de que se pueden hacer muchísimas cosas buenas para una IA benéfica con 40 000 millones de dólares (conozco algunas organizaciones benéficas de alineación de IA a las que les encantaría disponer de esa cantidad de dinero; el consejo de OpenAI puede enviarme un correo si quiere que los ponga en contacto). Pero no sé, invertir 40 000 millones de dólares en causas loables relacionadas con la IA se parece mucho menos a crear IA que ser OpenAI y verdaderamente crear IA.
Así que, además del argumento de que Altman está ofreciendo muy poco, hay otro argumento que los jueces y los fiscales generales tendrán que considerar: que simplemente no le es lícito vender, al precio que fuere.
Durante los inicios de la entidad sin fines de lucro, Musk donó 44 millones de dólares. Dice que OpenAI violó sus derechos cuando aceptaron su dinero con fines benéficos y luego lo utilizaron para convertirse en un gigante corporativo que competía con él. Para sorpresa de nadie que conozca a Elon, la demanda es contundente:
Altman, cofundador y director general (CEO) de OpenAI, y Brockman, cofundador y exdirector de tecnología de OpenAI, se aprovecharon del altruismo de Musk para convencerlo de que financiara la empresa. Mientras fingían compartir la preocupación de Musk por la trayectoria de la industria de la inteligencia artificial (IA), Altman y Brockman solicitaron millones de dólares en donaciones a Musk para construir OpenAI con la promesa de que la organización antepondría los intereses de las personas a las ganancias y serviría como contrapeso a los demás actores dominantes en el sector de la IA. Con pleno conocimiento de que el dinero de Musk estaba supeditado a que se utilizara de forma benéfica, los demandados se dispusieron a construir un gigante con fines de lucro, en contra de sus promesas originales.
El proyecto secreto de los demandados incluía un esfuerzo de Microsoft para “explotar” a OpenAI. Como parte de esto, Altman estableció una vasta red de entidades con fines de lucro en las que tanto él como Microsoft tienen importantes participaciones. Además, OpenAI y Microsoft tienen varios acuerdos contractuales, entre los que se incluye, por ejemplo, el acuerdo de Microsoft para suministrar materias primas a OpenAI y la concesión por parte de OpenAI a Microsoft de una licencia exclusiva para usar su tecnología. Los demandados se han asegurado de que el consejo directivo de OpenAI esté lleno de consejeros totalmente alineados con los intereses de Altman y Brockman, de modo que los consejeros independientes son solo una minoría.
A principios de este mes, la jueza denegó una medida precautoria. Es decir, se negó a impedir que OpenAI se convierta en una entidad con fines de lucro hasta que termine el juicio. Esto siempre fue una posibilidad remota y habría requerido que Musk demostrara de manera abrumadora que tenía razón.
Pero Rob Wiblin y Garrison Lovely dicen que la narrativa de que “Musk perdió” es demasiado simple. La jueza dictaminó que Musk solo tiene legitimación para demandar si su intención era que su donación de 44 millones de dólares estuviera restringida de alguna manera. Pero también dijo que en caso de que sí tuviera legitimación para demandar, su asunto parecía sólido en cuanto al fondo. Así que celebrará un juicio para ver si tiene legitimación y, de ser así, es probable que falle a su favor.
Wiblin estima que hay un 45 % de probabilidades de que la jueza falle a favor de Musk. ¿Y luego qué? En caso de que la entidad sin fines de lucro ya se haya convertido en una entidad con fines de lucro, podría ordenar que se reconvirtiera o que cambiara su gobernanza. O simplemente podría ordenar que le dieran mucho dinero a Musk.
Incluso si la jueza no bloquea la conversión, la demanda podría causar problemas. Si la jueza dictamina que Musk no tiene legitimación, pero que su caso es bueno, los fiscales generales podrían utilizar la parte de “su caso es bueno” al hacer su propio análisis para decidir si permiten la compra. Y si los miembros del consejo aceptaran la conversión a una entidad con fines de lucro después de que una jueza hubiera dicho, aunque fuera de manera no vinculante, que el caso en su contra era bueno, sería más fácil que alguien (por ejemplo, Musk) denunciara a cada uno de ellos por incumplir con sus obligaciones.
Altman ha indicado que “contrataría a un equipo directivo y a personal para llevar a cabo iniciativas benéficas en sectores como la salud, la educación y la ciencia”.
Hiciera lo que hiciere, tendría que guiarse por su misión de utilizar la IA en beneficio de la humanidad. Creo que sería rebuscado decir que utilizaron la IA para conseguir el dinero y que ahora el dinero está beneficiando a la humanidad, así que probablemente las iniciativas benéficas tendrían que estar relacionadas con la IA de alguna manera. Por ejemplo, podrían ayudar a los hospitales a utilizar la IA para tratar a los pacientes.
Manifold se pregunta si podrían acabar financiando iniciativas de seguridad de la IA:a
Esto tiene algo de sentido; seguramente es la forma más directa de interpretar el mandato de utilizar el dinero donado para “asegurarse de que la IA beneficie a la humanidad”. Y un compromiso evidente de llevar a cabo su misión tal como se describe se vería bien ante los reguladores. Pero también puede que no sea tan popular entre las mayorías como “salud, educación y ciencia”, y hacer cosas populares también se vería bien ante los reguladores. Si tienen esto en mente, Altman no lo ha mencionado.
A menos que algún juez haga alguna locura, será el actual consejo de la entidad sin fines de lucro (conformado por personas leales a Altman) quien tome esta decisión.
Tal vez.
Si OpenAI se convierte con éxito en una entidad con fines de lucro, podrá conseguir más inversiones. Eso le facilitará escalar más rápido y mantener su liderazgo. Si no quieres un escalamiento rápido, o no quieres que OpenAI vaya a la cabeza, deberías estar en su contra.
Pero si OpenAI se convierte con éxito en una entidad con fines de lucro, entonces la entidad sin fines de lucro tendrá que reinventarse como una verdadera organización benéfica, financiando la asistencia sanitaria y la ciencia, y quizás, si tenemos mucha suerte, la seguridad de la IA. Si te entusiasma este financiamiento, deberías apoyarlos.
El objetivo original de OpenAI era garantizar que la singularidad creara una vasta prosperidad para todos, quizás a través de un ingreso mínimo. El hecho de que una organización benéfica posea o no el 51 % (o cualquier otro porcentaje) de las acciones de OpenAI es relevante para esta visión. Si OpenAI inicia una singularidad y acaba teniendo todo el dinero del mundo, entonces puede que el 49 % de todo el dinero del mundo vaya a sus inversionistas (creando una casta de megaplutócratas), pero que el 51 % restante vaya a una entidad sin fines de lucro encargada de beneficiar a toda la humanidad (¿supongo que de ahí saldría el ingreso mínimo?). Creo que es poco probable que OpenAI termine creando a Dios y al mismo tiempo siga sometida al fiscal general de California. Pero no es del todo imposible: Robin Hanson ha escrito extensamente sobre la manera en que, si hay muchas superinteligencias y empresas casi iguales que compiten entre sí, estas podrían optar por mantener las estructuras de propiedad y gobernanza existentes como árbitros. En este escenario poco probable, el porcentaje exacto de acciones de OpenAI en manos de los inversionistas frente al de la organización benéfica podría importar mucho.
Por último, los reguladores (ya sea la jueza de la demanda de Musk o los fiscales generales) podrían dictaminar que todo lo relacionado con OpenAI apesta y que tienen que empezar de nuevo. Esto podría significar despedir al consejo y sustituirlo con … ¿otro consejo? ¿Gente que afirme que realmente le importa si la IA beneficia o no a toda la humanidad? No sé, uno siempre puede soñar. Business Insider habla de una incipiente coalición entre Meta y varios organismos de defensa del interés público que impulsan esta solución:
Meta, la empresa matriz de Facebook, le [escribió] al fiscal general de California, Rob Bonta, en diciembre para pedirle que interviniera.
“Aprovechándose de su condición de entidad sin fines de lucro, OpenAI recaudó miles de millones de dólares de capital de inversionistas para impulsar su supuesta misión”, escribió la empresa. “Ahora, OpenAI quiere cambiar su estatus, conservando todas las ventajas que le permitieron llegar al punto en que se encuentra hoy. Eso no está bien. No debería permitírsele a OpenAI que se burle de la ley al tomar y recuperar activos que construyó como organización benéfica para después utilizarlos para obtener ganancias privadas potencialmente enormes”.
A finales de enero, un grupo de 25 organizaciones benéficas, incluida una creada por el fundador de eBay, Pierre Omidyar, y su esposa, se unieron a la causa. La coalición instó a Bonta “a emprender acciones legales cuanto antes para garantizar que los activos de OpenAI no se desvíen ilegalmente para ganancias privadas”.
[…]
Public Citizen, un organismo de protección de los consumidores, ha atacado repetidamente a la empresa emergente de IA, acusándola de traicionar la misión de su entidad sin fines de lucro. “El consejo de la entidad sin fines de lucro se ha comportado como un subordinado de la entidad con fines de lucro y no ha hecho nada que demuestre compromiso alguno con la misión de la entidad sin fines de lucro”, declaró Robert Weissman, copresidente de Public Citizen.
Sostuvo que la solución es la disolución judicial de la entidad sin fines de lucro y la subasta de sus activos en beneficio de una nueva organización benéfica independiente que no esté vinculada al actual consejo de OpenAI.
Este es el mayor mercado de Manifold sobre el tema.b La gran caída al final se dio cuando la jueza dictaminó que el caso de Musk tenía fundamento.
Esta pregunta de Metaculus se parece al mercado de Manifold, pero sin la gran caída al final.c ¿Están exagerando en Manifold o se han dormido al volante en Metaculus?
El fiscal general de California Rob Bonta fue coordinador de organizaciones sin fines de lucro, como la Unión Estadounidense por las Libertades Civiles (ACLU) y otros grupos activistas. Es demócrata de toda la vida y estrecho aliado del gobernador Newsom. Tiene fama de ser “duro contra las armas”, y en ocasiones recurre a lo que considero maniobras publicitarias (por ejemplo, cuando Texas aprobó una recompensa de dudosa constitucionalidad por brindar información sobre abortos ilegales, intentó aprovechar la situación y propuso una recompensa de dudosa constitucionalidad por brindar información sobre armas ilegales).
En el pasado, el gobierno de Newsom se ha puesto del lado de las empresas de IA para complacer a sus donantes de Silicon Valley. Pero Bonta ha participado anteriormente en demandas antimonopolio contra Amazon y Google, por lo que no teme enfrentarse a las empresas de Big Tech.
La fiscal general de Delaware Kathy Jennings, también demócrata, es una antigua fiscal de distrito. Escribió una carta al tribunal que conoció de la demanda de Musk:
Dijo que, conforme a las leyes de Delaware, tenía autoridad para revisar la propuesta de convertir OpenAI en una empresa con fines de lucro. Dijo que la legalidad de la transacción se regiría por la ley de Delaware y que, si determinaba que no era legal, tenía potestad para pedir que se modificara la transacción o solicitar una medida cautelar ante un tribunal del estado de Delaware.
Jennings informó a la jueza González Rogers que mantenía un “diálogo continuo” con OpenAI y que estaba “revisando activamente” la transacción para asegurarse de que OpenAI se atenga a sus fines benéficos específicos en beneficio del público, en contraposición a los intereses comerciales o privados de los consejeros o socios de OpenAI.
Dijo que su revisión también analizaría la posibilidad de que los fines benéficos de los activos de OpenAI se vieran perjudicados por la transacción y de que los consejeros de OpenAI no cumplan con sus obligaciones fiduciarias.
Una persona que no conozco afirma que escribir cartas a estas personas podría ser útil:1
Si participas del altruismo eficaz en California o Delaware y crees que OpenAI tiene una posibilidad significativa de conseguir primero la IAG y que a partir de eso puede haber un despegue, probablemente sea eficaz escribir una carta a tu fiscal general instándolo a emprender acciones contra OpenAI. La estructura sin fines de lucro de OpenAI no es perfecta, pero es infinitamente mejor de lo que sería una empresa meramente privada.
OpenAI y Anthropic fueron fundadas por idealistas que creían en la Singularidad con el fin de garantizar que la IA se utilizara para hacer el bien. OpenAI intentó poner en práctica su compromiso siendo una entidad sin fines de lucro; Anthropic utilizó una estructura empresarial distinta.
Anthropic es una empresa de beneficio público, mucho más parecida a una entidad con fines de lucro normal que OpenAI. Está dirigida por un consejo de cinco personas. Dos miembros del consejo son elegidos por los inversionistas, como normalmente se hace. Pero los otros tres (¡la mayoría!) son elegidos por un grupo de cinco personas llamado Long Term Benefit Trust (LTBT). En los inicios de Anthropic, los fundadores sembraron el LTBT con personas externas inteligentes y confiables que parecían interesadas en el beneficio a largo plazo de la humanidad. Los fiduciarios pueden elegir a sus propios sustitutos sin compromisos con los inversionistas. En un momento cualquiera, pueden utilizar a sus tres miembros para tener mayoría en el consejo y anular lo que hagan los demás.
¿Cómo va? Bien. Algunos de los miembros originales del LTBT aceptaron trabajos en el gobierno y tuvieron que abandonarlo por conflicto de intereses. Una fuente cercana a Anthropic señala que tuvieron problemas para encontrar sustitutos: la mayoría de las personas destacadas en el campo de la IA con ideas altruistas tenían sus propios conflictos de intereses. Como resultado, el LTBT parece haberse reducido a tres personas, todas ellas con excelentes credenciales como filántropos concienzudos, pero ninguna particularmente ligada a la IA. Parece que llevan mucho tiempo eligiendo a los miembros de su consejo, y no sabemos por qué.
Zach Stein-Perlman, que dirige AI Lab Watch, sostiene que el Long-Term Benefit Trust de Anthropic tal vez no tenga suficiente poder. Señala una regla según la cual una supermayoría (término con una definición complicada, véase aquí) de accionistas puede anular al LTBT. Los partidarios de Anthropic argumentan que necesitan alguna forma de evitar que el LTBT pierda de vista su objetivo; muchos de los accionistas de Anthropic son también personas con un interés especial en la seguridad de la IA, y sería difícil conseguir que una mayoría de estas personas anulara al LTBT, a menos que fuera importante.
Creo que Anthropic parece ir bastante bien y que el LTBT no ha tenido ningún motivo para interferir, por lo que no hemos tenido oportunidad de ver qué tanto poder tiene realmente.