Pérdida gradual de poder
La proliferación de sistemas avanzados de IA puede llevar a la humanidad a una pérdida gradual de poder, incluso si tienen éxito los esfuerzos por evitar que estos sistemas busquen acumular poder o conspiren contra nosotros. La humanidad puede tener incentivos para ceder más control a las IA, otorgándoles poder sobre la economía, la política, la cultura y otras áreas. Con el tiempo, es posible que los intereses de la humanidad queden relegados y que nuestro control sobre el futuro se debilite, lo que podría constituir una catástrofe existencial.
Hay desacuerdos sobre la gravedad de este problema y su relación con otras preocupaciones sobre la alineación de la IA. Tampoco está claro, si se trata de un riesgo real, qué es lo que podríamos hacer al respecto. Pero creemos que es potencialmente muy importante y que más gente debería trabajar para aclarar el problema y quizás averiguar cómo abordarlo.
Exploratorio.a
El avance de la tecnología ha beneficiado históricamente a la humanidad. La invención del fuego, el aire acondicionado y los antibióticos han tenido algunos inconvenientes, pero en general han ayudado a los seres humanos a vivir más sanos, felices y cómodos.
Sin embargo, no ninguna garantía de que esta tendencia continuará.
Ya hemos escrito sobre los riesgos existenciales que conlleva el desarrollo de una tecnología avanzada de IA. Un modelo de amenaza prominente y especialmente preocupante es que, a medida que los sistemas de IA se vuelvan más poderosos, desarrollarán intereses que no están alineados con la humanidad. Sin que sus creadores lo sepan, podrían empezar a acumular poder. Podrían engañarnos intencionadamente sobre sus propósitos y utilizar su inteligencia superior y sus capacidades de planificación avanzada para quitarle el poder a la humanidad o llevarnos a la extinción.
Es posible, sin embargo, que el desarrollo de sistemas de IA lleve a la humanidad a la pérdida de poder y a la extinción, incluso si logramos evitar que los sistemas de IA busquen acumular poder y conspiren contra nosotros.
En un artículo reciente, Jan Kulveit y sus coautores llaman a este modelo de amenaza pérdida gradual de poder y argumentan a favor de las seis afirmaciones siguientes:
El artículo analiza la forma en que los sistemas de IA podrían llegar a dominar la economía, los gobiernos nacionales e incluso la cultura de manera contraria a los intereses de la humanidad.
Puede ser difícil imaginar cómo los humanos podrían permitirlo, porque en este escenario, los sistemas de IA no están tratando activamente de engañarnos. Lo único que hacen es seguir instrucciones humanas al pie de la letra.
El problema surge cuando, debido a las presiones competitivas, tenemos fuertes incentivos para ceder más control a los sistemas de IA. Algunos actores humanos —empresas, gobiernos u otras instituciones— obtendrán inicialmente un poder significativo con el despliegue de la IA, utilizando estos sistemas para promover sus intereses y misiones.
Así es como podría ocurrir:
Una vez que los seres humanos comienzan a perder poder de esta forma, es posible que irreversiblemente tengan cada vez menos capacidad de influir en el curso futuro de los acontecimientos. A la larga, es posible que sus necesidades no sean atendidas en absoluto por los actores globales más poderosos. En el caso más grave, la especie tal y como la conocemos podría dejar de sobrevivir.
Muchos otros escenarios son posibles.
Existen versiones de aparente “pérdida de poder” que podrían parecerse a una utopía: humanos prosperando y felices en una sociedad sabiamente gestionada y controlada por sistemas de IA benévolos. O puede que un día la humanidad decida que está contenta de ceder el futuro a sistemas de IA que consideramos dignos descendientes.
Pero este riesgo consiste en que la humanidad podría “ceder” el control involuntariamente y de una forma que pocos de nosotros aprobaríamos. Podríamos ser sustituidos gradualmente por sistemas de IA sin experiencias conscientes o el futuro podría estar dominado por una feroz competición darwiniana entre varios agentes digitales. Así, el futuro podría verse privado de la mayor parte de su valor: una pérdida catastrófica.
Queremos entender mejor estas dinámicas y riesgos para incrementar las posibilidades de que el futuro sea bueno.
Tenemos grandes dudas sobre la probabilidad de que ocurran varios escenarios de pérdida gradual de poder. Es difícil separar las posibilidades de los riesgos relacionados con los sistemas de IA que buscan acumular poder y de las cuestiones sobre el estatus moral de las mentes digitales, sobre las que también es difícil estar seguro.
Dado que este ámbito está impregnado de incertidumbre, no está claro cuáles son las mejores intervenciones. Creemos que, como mínimo, hay que seguir trabajando para entender este problema y sus posibles soluciones, y probablemente algunas personas deban enfocarse en él.
Existen varias razones para no creer que este problema sea muy grave:
Dado el estado relativamente limitado de nuestro conocimiento de este tema, la mejor manera de contribuir a resolver el problema sería probablemente realizar más investigaciones para entenderlo mejor. (Sigue leyendo sobre las habilidades para la investigación.)
La formación en materias como la filosofía, la historia, la economía, la sociología y las ciencias políticas, además del aprendizaje automático y la IA, pueden ser especialmente relevantes.
Quizá te interese trabajar en el mundo académico, en think tanks o en instituciones de investigación sin ánimo de lucro.
En algún momento, si comprendemos mejor los modelos de amenazas y las posibles soluciones, será importante contar con personas que trabajen en gobernanza y políticas de la IA centradas en reducir estos riesgos. Por tanto, seguir una carrera en gobernanza de la IA, mientras se profundiza en el conocimiento de este nuevo campo de investigación y de otros riesgos asociados a la IA, puede ser una estrategia prometedora para ayudar a reducir el riesgo de pérdida gradual de poder.
Kulveit y sus colaboradores sugieren algunos enfoques para mitigar el riesgo de pérdida gradual de poder, entre los cuales se incluyen los siguientes:
Algunas organizaciones donde podrías llevar a cabo investigaciones relevantes incluyen:
También puedes explorar puestos en otras organizaciones que trabajan en la seguridad y políticas de la IA.