• Ingresar con


  • Preferencias de usuario


  • ¿Está seguro de que desea eliminar su cuenta?

  • Se perderán todas sus preferencias almacenadas. Esta acción es irreversible.

Carrera de la inteligencia artificial

Una carrera de la inteligencia artificial (en inglés, AI race) es una competencia entre equipos rivales para desarrollar primero una inteligencia artificial (IA) avanzada.

Terminología

La expresión “carrera de la IA” puede utilizarse en un sentido algo más restringido para describir una competencia para alcanzar la superioridad militar mediante la IA. Las expresiones carrera armamentista de la IA (en inglés, AI arms race⁠1 o arms race for AI)⁠2 y carrera armamentista militar de la IA (en inglés, military AI arms race)⁠3 se emplean a veces para referirse a este tipo específico de carrera de la IA.

Carreras de la IA y carreras tecnológicas

Una carrera de la IA es un ejemplo del fenómeno más amplio de una carrera tecnológica, caracterizada por una estructura en la que el ganador se lo lleva todo: el equipo que primero desarrolla la tecnología obtiene todos (o la mayoría) de sus beneficios. Esto puede ocurrir debido a varios tipos de bucles de realimentación que multiplican los beneficios asociados. En el caso de la IA, se cree generalmente que estos beneficios son muy grandes, quizás suficientes para conferir al equipo ganador una ventaja estratégica decisiva.

Relevancia de las carreras de la IA

Las carreras de la IA son relevantes principalmente por sus efectos sobre el riesgo asociado a la inteligencia artificial: un equipo puede mejorar sus posibilidades de ganar la carrera flexibilizando las precauciones de seguridad, y los beneficios de ganar la carrera pueden ser lo suficientemente grandes como para incentivar esa flexibilización. Además, una carrera que se desarrolle entre gobiernos nacionales —en lugar de empresas privadas— podría aumentar la inestabilidad global y hacer más probables los conflictos entre grandes potencias.

Un modelo de carreras de la IA

Stuart Armstrong, Nick Bostrom y Carl Shulman han desarrollado un modelo de carreras de la IA.⁠4 a

El modelo consiste en nnn equipos diferentes que compiten para construir la primera IA. Cada equipo tiene una determinada capacidad de construcción de IA ccc, así como un nivel de seguridad de la IA elegido sss que oscila entre 0 (ninguna precaución) y 1 (máxima precaución). El equipo para el que c−sc - sc−s sea mayor gana la carrera, y la probabilidad de desastres causados por la IA es 1−s1 - s1−s.

La utilidad se normaliza de modo que, para cada equipo, una utilidad de 0 corresponde a un desastre causado por la IA y una utilidad de 1 corresponde a ganar la carrera. Además, cada equipo tiene un grado de enemistad hacia los demás equipos eee, que oscila entre 0 y 1, de suerte que un equipo obtiene una utilidad 1−e1 - e1−e si otro equipo gana la carrera. El modelo asume un valor constante de eee para todos los equipos.

La capacidad de cada equipo se extrae aleatoriamente de una distribución uniforme que abarca el intervalo [0,μ][0, \mu][0,μ], para un único μμμ dado; un valor más bajo en el intervalo representa una menor capacidad.

De este modelo se derivan varias consecuencias:

  • A medida que aumenta μμμ, la capacidad adquiere cada vez más importancia en relación con la seguridad a la hora de determinar el resultado de la carrera y, en consecuencia, los equipos están menos dispuestos a escatimar en precauciones de seguridad. A la inversa, los valores más bajos de μμμ se asocian con menos precauciones; en el caso límite de μ=0μ = 0μ=0, los equipos no tomarán ninguna precaución.
  • A medida que aumenta la enemistad, aumenta el costo de perder la carrera para cada equipo, por lo que los equipos tienden más a escatimar en precauciones de seguridad. Pero mientras que la importancia relativa de la capacidad está determinada en gran medida por la tecnología, y como tal es mayormente intratable, hay varias intervenciones que razonablemente se espera que disminuyan la enemistad, como “fomentar la confianza entre naciones y grupos, compartir tecnologías o descubrimientos, fusionarse en proyectos conjuntos o acordar objetivos comunes”.⁠5
  • Un resultado menos intuitivo del modelo es la relación entre la capacidad y la enemistad en situaciones en las que (1) no hay información; (2) hay información privada (cada equipo conoce su propia capacidad); y (3) hay información pública (cada equipo conoce la capacidad de todos los demás). La ausencia de información siempre es más segura que la información privada. Pero mientras que la información pública puede disminuir el riesgo, en relación con la información privada, cuando tanto la capacidad como la enemistad son bajas, ocurre lo contrario para niveles suficientemente altos de capacidad o enemistad.
  • Otro resultado sorprendente tiene que ver con el impacto del número de equipos en diferentes escenarios informativos. Cuando no hay información o la información es pública, el riesgo aumenta estrictamente con el número de equipos. Pero aunque este efecto también se observa para la información privada cuando la capacidad es baja, a medida que aumenta la capacidad el efecto acaba invirtiéndose.

Carreras de la IA y riesgos de la información

Las carreras de la IA se citan a veces como un ejemplo de peligro de la información, es decir, un riesgo derivado de la difusión de información verdadera. En realidad, las carreras de la IA entrañan una serie de riesgos diferentes. Uno de ellos es el riesgo identificado por Armstrong, Bostrom y Shulman: pasar de una situación de ausencia de información a otra de información privada o pública aumenta los riesgos. Otro riesgo de la información, más sutil, tiene que ver con el intercambio de información sobre el propio modelo: la conciencia generalizada de que la falta de información es más segura podría animar a los equipos a adoptar una cultura del secreto que podría impedir la creación de confianza entre equipos rivales.⁠6 En términos más generales, plantear el desarrollo de la IA en los debates de líderes e intelectuales públicos como una dinámica en la que el ganador se lo lleva todo puede considerarse peligroso en sí mismo, en la medida en que es probable que dificulte la cooperación y exacerbe el conflicto.⁠7

Más información

Stuart Armstrong, Nick Bostrom & Carl Shulman (2016) Racing to the precipice: a model of artificial intelligence development, AI and Society, vol. 31, pp. 201–206.

Entradas relacionadas

carrera tecnológica • conflicto entre grandes potencias • inteligencia artificial • riesgo asociado a la inteligencia artificial