Seguridad de la inteligencia artificial
La seguridad de la inteligencia artificial es el estudio de las formas de reducir los riesgos asociados a la inteligencia artificial (IA).
Dentro de la seguridad de la IA, suele distinguirse entre investigación técnica e investigación conceptual. La primera, denominada seguridad técnica de la inteligencia artificial, consiste en aplicar técnicas en campos como el aprendizaje automático y el aprendizaje profundo para resolver el problema de la alineación. La investigación conceptual, por su parte, busca hacer uso de ideas provenientes de múltiples disciplinas—como la filosofía, la ingeniería de seguridad y el análisis de los sistemas complejos—para lograr una mejor comprensión de los riesgos que plantea la IA y las distintas estrategias que podrían contribuir a mitigarlos.
A veces también se incluye la gobernanza de la inteligencia artificial como una especie dentro de la seguridad de la IA, aunque por lo general se la considera un campo de investigación autónomo.
Una investigación de profundidad intermedia de 80 000 Horas considera la investigación técnica sobre la seguridad de la IA una “vía prioritaria”: una de las carreras profesionales más prometedoras que la organización ha identificado hasta el momento.1
A veces se caracterizan los argumentos para priorizar la seguridad de la IA y la reducción del riesgo asociado a la IA como un asalto de Pascal,a dando a entender que los riesgos son ínfimos y que para cualquier nivel de riesgo insignificante los beneficios podrían exagerarse hasta el punto de garantizar que siga siendo una prioridad máxima. Una réplica a esta objeción es que en una encuesta a 700 investigadores de aprendizaje automático la respuesta media a la pregunta “la probabilidad de que el efecto a largo plazo de la IA avanzada en la humanidad sea ‘extremadamente malo (por ejemplo, la extinción humana)’” fue del 5 %, mientras que el 48 % de los encuestados asignó a este escenario una probabilidad de al menos 10 %.2 Estas probabilidades son demasiado altas (en al menos 5 órdenes de magnitud) para ser consideradas pascalianas.
Vael Gates (2023) Resources I send to AI researchers about AI safety, Effective Altruism Forum, 11 de enero.
Victoria Krakovna (2017) Introductory resources on AI safety research, Victoria Krakovna’s Blog, 19 de octubre.
Richard Ngo (2023) ‘Desenmarañar los argumentos sobre la importancia de la seguridad de la inteligencia artificial’, Biblioteca Altruismo Eficaz.
alineación de la inteligencia artificial • gobernanza de la inteligencia artificial • interpretabilidad de la inteligencia artificial • riesgo asociado a la inteligencia artificial