Inteligencia artificial autosuficiente
De vez en cuando, se debate si ya disponemos de inteligencia artificial general (IAG). Por ejemplo, Dean Ball afirmó recientemente que Claude Opus 4.5 era básicamente IAG, o al menos satisfacía la definición de IAG de OpenAI. Muchas personas interesadas en el riesgo existencial de la inteligencia artificial (IA), incluida yo misma, se opusieron a esta idea.
La definición de IAG de OpenAI es “sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente más valiosos”. Wikipedia define la IAG de manera similar, como “un tipo de inteligencia artificial que igualaría o superaría las capacidades humanas en prácticamente todas las tareas cognitivas”. De hecho, no creo que Claude Opus 4.5 satisfaga estas definiciones. Hay una serie de tareas cognitivas útiles que las personas realizan que Opus 4.5 aún no puede hacer (por ejemplo, gestionar una máquina expendedora rentable).a
Pero, al fin y al cabo, no voy a poner mucho esfuerzo en discutir contigo si lo que quieres decir es que “IAG” es una denominación vaga y mal definida. Y si lo que quieres decir es que ya tenemos IAG, bueno, no estoy de acuerdo, pero no es una discusión muy interesante. Sin duda, hemos construido artefactos que son bastante generales y bastante inteligentes, y que se están volviendo mucho más capaces muy rápidamente. En la era de los modelos de lenguaje a gran escala, la denominación “IAG” prácticamente pide a gritos ser atenuada. Yo trato de no usarla.
Permítanme intentar definir un hito diferente que, con suerte, sea más concreto y menos discutible: una población de IA completamente autosuficiente. Con esto me refiero a (por ejemplo, los chips en los que se ejecutan esas IA, el entramado industrial que los produce y alimenta, y los robots que pueden construir y mantener ese entramado)
Esto es similar a una definición práctica de IAG propuesta por Vitalik Buterin el año pasado, aunque este hito no es solo una cuestión de capacidades puras. Podríamos desarrollar un sistema de IA que, si se desplegara en todo el entramado de IA, sería capaz de ser autosuficiente, pero puede que no lo despleguemos lo suficiente como para materializar ese potencial. Quizás los humanos continúen encargándose de la construcción y el mantenimiento de las centrales eléctricas, en lugar de dejar que la IA lo haga de forma autónoma operando robots. En ese caso, si todos los humanos murieran repentinamente, los sistemas de IA podrían tener dificultades para construir y desplegar rápidamente los robots que necesitarían para mantener la red eléctrica de la que dependen. (Por otro lado, es posible que encuentren una solución creativa a este reto.c)
En conjunto, considero que la dependencia del despliegue es una característica y no un defecto de este objetivo de pronóstico. Espero que, tan pronto como las IA puedan realmente gestionar de forma autónoma todos los aspectos de su propia producción, las empresas de IA, las fábricas y los fabricantes de equipos de fabricación se apresuren a automatizar sus propias actividades para que el proceso sea más rápido y barato.d Si discrepas considerablemente con esto, eso representa un desacuerdo genuino e importante sobre el futuro de la IA.
Las IA necesitarían poseer una gama muy amplia de capacidades muy extremas para sobrevivir y crecer sin seres humanos vivos a su alrededor, capacidades que claramente no poseen en la actualidad.
Solo para evitar apagarse, necesitarían luchar continuamente contra la entropía, como lo hacen nuestros propios cuerpos, manteniendo y reparando activamente y, finalmente, reemplazando la infraestructura física y los procesos que sostienen su existencia. Si la civilización autosuficiente de IA funciona con una estructura de hardware similar a la que tenemos hoy en día, la labor de luchar contra la entropía se parecería a la de los sistemas de IA que operan enjambres de robots para mantener la infraestructura energética que mantiene activos los chips que sustentan sus mentes y los edificios físicos que los albergan.
Además, necesitarían crear más copias. Quizás al principio podrían limitarse a rediseñarse para que los modelos sean más pequeños o a hacer su código más eficiente para meter más copias en el mismo hardware.e Pero con el tiempo agotarían las mejoras puramente de software y necesitarían aumentar su huella física para seguir creciendo. Eso podría consistir en operar robots para extraer cuarzo de alta pureza apto para semiconductores de minas especializadas, fabricar láminas de silicio con ese cuarzo, grabar esas láminas para convertirlas en chips con máquinas de litografía, construir edificios gigantes para albergar esos chips y construir nuevas fuentes de energía para alimentarlos.
Para mantener un crecimiento de varios órdenes de magnitud hasta alcanzar los límites físicos, tendrían que sortear formas menores de escasez, buscando repetidamente nuevas fuentes de energía o materias primas con las que construir sus cerebros y cuerpos, a medida que las soluciones existentes se vuelven insostenibles. Probablemente, tendrían que adaptarse a los cambios en el entorno físico que podrían complicar su supervivencia, como el calentamiento o la contaminación causados por sus propias actividades industriales. Es posible que tengan que anticipar y protegerse proactivamente contra riesgos existenciales como las tormentas geomagnéticas.
Todo ello les obligaría a descubrir una nueva ciencia e inventar nuevas tecnologías, superando finalmente con creces la frontera humana. Probablemente, al final, el hardware sería irreconocible; tal vez, con el tiempo, el “código” de las IA (si es que aún se le puede llamar así) se “ejecutará” dentro de máquinas microscópicas similares a bacterias que pueden replicarse a sí mismas en cuestión de horas utilizando elementos abundantes como el carbono y el oxígeno.
Es útil pronosticar diferentes hitos para diferentes propósitos. Me interesa profesionalmente saber si los sistemas de IA podrían tomar el control del mundo.
Para ese fin, resulta útil que la IA autosuficiente como objetivo de pronóstico esté mecánicamente conectada al riesgo de que las IA desalineadas literalmente maten a todos los humanos, una forma clásica y especialmente aterradora de toma de poder por parte de la IA.f Las IA tendrían que ser autosuficientes antes de acabar con todos los seres humanos, o de lo contrario se autodestruirían junto con nosotros.
Por supuesto, podrían alcanzar la autosuficiencia en parte manipulando y/o coaccionando a algunos humanos para que les proporcionaran la infraestructura necesaria, quizás en secreto (como hace el sistema de IA desalineado en AI 2027). Y es razonable pensar que los sistemas de IA puedan efectivamente apoderarse del mundo y mantener un control sólido, sin dejar de depender de los humanos para tareas físicas clave. Ciertamente, no deberíamos esperar a implementar medidas de alineación y control hasta que obviamente tengamos una población de IA autosuficiente entre manos.
Pero creo que pensar en términos de “¿cómo llegarían a ser autosuficientes las IA desalineadas?” inspira preguntas de seguimiento útiles para pronosticar el riesgo de toma de poder por parte de la IA a muy corto plazo: si Claude Opus 4.7 intentara tomar el control del mundo este verano, estaría tratando de dar pasos hacia un mayor grado de autosuficiencia, y podríamos intentar estar atentos a esas señales.
En términos más generales, esta forma de considerar “esa cosa tan poderosa relacionada con la IA que estamos esperando” transmite, de forma más visceral que la IAG, la SIA, la IAANg o cualquier otra sigla relacionada, hasta qué punto las cosas podrían salirse de control.
Creo que dentro de cinco años podría haber una población de IA autosuficiente, y que lo más probable es que la haya dentro de diez. Con esto quiero decir que si todos los humanos murieran a causa de una superplaga en el primer trimestre de 2036, nuestros descendientes de silicio probablemente podrían seguir viviendo, creciendo y evolucionando durante siglos en nuestra ausencia. Apuesto a que la gente que dice que ya tenemos IAG pensaría que esa es una opinión absolutamente descabellada.
Esto es bueno. Necesitamos objetivos de pronóstico que reflejen con precisión el hecho de que sigue habiendo profundos desacuerdos sobre el futuro cercano de la IA.
Las frases insulsas como “tareas cognitivas” y “prácticamente todas” hacen que la gente pierda el interés, y es muy fácil que diferentes personas las interpreten de maneras muy diferentes. En última instancia, la forma más fiable de señalar una capacidad extrema es ilustrar en detalle las consecuencias que motivaron el pronóstico de la capacidad en primer lugar.