• Ingresar con


  • Preferencias de usuario


  • ¿Está seguro de que desea eliminar su cuenta?

  • Se perderán todas sus preferencias almacenadas. Esta acción es irreversible.

Cómo formarse profesionalmente en alineación técnica de la inteligencia artificial

por Charlie Rogers-Smith
Alineación de la IAElección de carrera profesionalÉtica de la IARiesgo asociado a la IASeguridad de la IA

Esta guía está dirigida a las personas que están considerando trabajar directamente en la alineación técnica de la IA. Espero que sea de gran utilidad tanto para las personas que aún no estén trabajando en este campo, como para las que ya estén familiarizadas con los argumentos a favor de trabajar en él. Si no conoces los argumentos que defienden la importancia de la alineación de la IA, puedes acceder a un panorama general leyendo Por qué la alineación de la inteligencia artificial podría ser difícil con las técnicas modernas de aprendizaje profundo (Cotra, 2021), alguna entrada de The “most important century” blog post series (Karnofsky, 2021) y AGI safety from first principles (Ngo, 2019).

Puede que lo mejor para ti no sea trabajar en la alineación técnica de la IA. Puedes tener un gran impacto en la reducción del riesgo existencial derivado de la IA trabajando en otras áreas relacionadas con la IA, como la estrategia, la gobernanza, la política, la seguridad, la pronosticación, las tareas de apoyo, la construcción del campo, la concesión de becas y la gobernanza del hardware. Todo esto sin contar otras áreas, como el riesgo biológico. Probablemente sea mejor hacer un gran trabajo en una de esas áreas que un trabajo mediocre de alineación técnica, porque el impacto es de cola pesada. Un buen ejercicio es volver a escuchar el pódcast/post de Holden Karnofsky sobre las aptitudes y pensar en cuáles de ellas podrías destacar. Luego pregúntate a ti mismo o a otros cómo podrías utilizar esas aptitudes para resolver los problemas que te preocupan. También recomiendo postularse para hablar con 80 000 Horas.

Probablemente me equivoque, pero quizá sea de ayuda. Los comentarios que he recibido fueron en general positivos, pero no me sorprendería que algunas personas pensaran que esta guía es netamente negativa. Por ejemplo, porque empuja a la gente hacia (o la aleja de) determinados objetivos, como la investigación teórica, la investigación empírica, la ingeniería de aprendizaje automático (AA) o la obtención de un doctorado. He intentado comunicar aquí mi punto de vista global, después de integrar los comentarios. Pero solo puedo sugerir que intentes formar tu propia opinión sobre qué es lo mejor que puedes hacer, y que tomes esta guía como una contribución a ese proceso.

Tuve mucha ayuda. Neel Nanda me ayudó a empezar este proyecto. Copié directamente cosas de Rohin Shah, Adam Gleave, Neel Nanda, Dan Hendrycks, Catherine Olsson, Buck Shlegeris y Oliver Zhang. Recibí excelentes comentarios de Adam Gleave, Arden Koehler, Rohin Shah, Dan Hendrycks, Neel Nanda, Noa Nabeshima, Alex Lawson, Jamie Bernardi, Richard Ngo, Mark Xu, Andy Jones y Emma Abele. Escribí la mayor parte de esta guía en la Abadía de Wytham, por cortesía de Elizabeth Garrett.

Tipos de trabajo de alineación

(Lo que sigue está casi todo copiado de FAQ, de Rohin Shah.)

Para la investigación de alineación técnica directa orientada a resolver el problema (es decir, aquella que ignora el trabajo “meta”, la construcción de campo, la gobernanza de la IA, etc.), estos son los caminos aproximados:

  1. Líder de investigación (teórica): Estas funciones son de varios tipos (industriales, sin ánimo de lucro, académicas o incluso independientes). Se espera que propongas y dirijas proyectos de investigación. En general, se trata de proyectos que se pueden emprender con mucho trabajo de reflexión y de escritura en Google Docs/LaTeX, y quizá con un poco programación. El trabajo teórico de alineación puede ser más conceptual o más matemático. El resultado del trabajo matemático suele ser la demostración de un teorema o un nuevo marco matemático, mientras que en el trabajo conceptual la matemática se utiliza como una herramienta (muy buena) para saber si se ha resuelto un problema. El trabajo conceptual es más filosófico. No se requiere un doctorado, pero es útil. Habilidades relevantes: una inclinación extremadamente fuerte por el pensamiento y por la investigación y un gran conocimiento de la alineación de la IA; esto es especialmente importante debido a la falta de bucles de realimentación de la realidad.

  2. Colaborador de investigación (teórica): Estos puestos son bastante raros; hasta donde yo sé, solo están disponibles en ARC [mayo de 2022]. Probablemente deberías leer su anuncio de búsqueda candidatos.

  3. Líder de investigación (empírica): Fuera del mundo académico, estos puestos suelen estar disponibles en organizaciones industriales y organizaciones sin ánimo de lucro similares, como DeepMind, OpenAI, Anthropic y Redwood Research. Se espera que propongas y dirijas proyectos de investigación. En general, se trata de proyectos que implican lograr o comprender algo nuevo con los sistemas de AA actuales. No es estrictamente necesario un doctorado, pero en la práctica la mayoría de los jefes de investigación tienen uno. Habilidades relevantes: una fuerte inclinación por la investigación, un sólido conocimiento de la alineación de la IA y del AA y una habilidad moderada en programación e ingeniería de AA.

  4. Colaborador de investigación (empírica): Estos puestos suelen estar disponibles en organizaciones industriales u organizaciones sin ánimo de lucro similares, como DeepMind, OpenAI, Anthropic y Redwood Research. Se espera que trabajes en equipo para desarrollar proyectos de investigación propuestos por otros. No se requiere un doctorado. Habilidades relevantes: una gran destreza en programación, un gusto moderado por la investigación y un conocimiento moderado de la alineación de la IA. Los trabajos varían en función de la mayor o menor destreza en ingeniería de AA requerida (pero la mayoría requieren una gran destreza).

  5. Profesor: Se trata de una ruta específica para cualquiera de las dos carreras profesionales de “líder de investigación”, pero con requisitos adicionales: como académico, no solo se espera que propongas y dirijas una agenda de investigación, sino también que aceptes y guíes a estudiantes de posgrado para llevar a cabo esa agenda de investigación, que impartas clases, etc. Se requiere un doctorado; es el primer paso claro en esta carrera profesional. Habilidades relevantes: una fuerte inclinación por la investigación, un sólido conocimiento de IA y comunicación técnica moderada. La capacidad para la programación y para el AA normalmente no se comprueban ni se exigen, aunque suelen ser necesarias para tener éxito durante el doctorado.

  6. Ingeniero de software: Muchas organizaciones también pueden beneficiarse de ingenieros de software expertos, por ejemplo, al crear marcos para trabajar con grandes redes neuronales que no se ajustan a una unidad de procesamiento gráfico o al reorganizar bases de código para hacerlas más limpias y modulares, a fin de permitir una experimentación más rápida. Sin embargo, supongo que solo deberías aspirar a esto si ya tienes estas habilidades (o puedes adquirirlas rápidamente), o si por alguna razón crees que podrías convertirte en un experto de primer orden en esta área, pero no en las otras.

La principal diferencia entre los líderes y los colaboradores de investigación es que se espera que los líderes aporten valor principalmente eligiendo y dirigiendo buenos proyectos de investigación, mientras que se espera que los colaboradores de investigación aporten valor principalmente ejecutando los proyectos con rapidez. Sin embargo, no es posible separar totalmente estas dos actividades, por lo que los líderes de investigación deben tener cierta habilidad para ejecutar proyectos, y los colaboradores deben tener cierta habilidad para elegir cómo avanzar en un proyecto. Algunas organizaciones, como DeepMind, hacen explícita la diferencia (usando títulos como “científico investigador” e “ingeniero investigador”), a diferencia de otras, como OpenAI [Anthropic] (que usan el título de “miembro del personal técnico”).

La razón principal por la que divido las funciones en “líder” y “colaborador” es que, hasta donde yo sé, las funciones de “líder” suelen ser ocupadas por personas con un doctorado. El doctorado es una exigencia explícita de DeepMind para el puesto de científico investigador, pero no para el de ingeniero investigador. (Ambas funciones pueden dirigir proyectos, si convencen a su jefe y a sus colaboradores de que vale la pena, aunque esto solo es una expectativa explícita para los científicos investigadores.) Otras organizaciones no exigen expresamente un doctorado, pero en cualquier caso parece que la mayoría de las personas que acaban eligiendo y dirigiendo proyectos de investigación de hecho tienen doctorados. Creo que esto se debe a que los doctorados enseñan habilidades de investigación que son difíciles de aprender por otras vías.

No quiero ser demasiado enfático al respecto. Sigue siendo posible dirigir proyectos sin un doctorado. En abril de 2022, podría nombrar a 10 personas sin doctorado cuyo trabajo se clasificaría mejor como “líder de investigación”, y que parecerían claramente merecedoras de financiamiento. (Ten en cuenta que “claramente merecedor de financiamiento sin un doctorado” no significa necesariamente que el doctorado sea una mala elección: en el caso de varias de estas personas, me parece probable que harían un trabajo mucho mejor dentro de 5 años si obtuvieran un doctorado en lugar de seguir haciendo las cosas que hacen actualmente.)

¿Qué tipo de trabajo de alineación deberías hacer?

No tengo una opinión firme sobre qué tipo de trabajo de alineación es más valioso, así que me centraré sobre todo en la aptitud personal. Existe un amplio desacuerdo en la comunidad sobre el valor relativo de los distintos trabajos. Sin embargo, la principal decisión que tendrás que tomar al principio es si quieres dedicarte al trabajo de alineación empírico o teórico. Y creo que la mayoría de la gente cree que se puede hacer un buen trabajo en ambos campos. Si eso es cierto, probablemente puedas centrarte en destacar en el trabajo teórico o empírico en función de tu aptitud personal, mientras formas tu propia opinión sobre qué trabajo teórico/empírico específico de alineación conviene hacer.

Sin embargo, creo que la mayoría de la gente está de acuerdo en que si puedes convertirte en un líder de investigación capaz de establecer agendas de investigación buenas y novedosas, entonces deberías hacerlo. Tendrás que tener una fuerte inclinación por la investigación y ser capaz de reflexionar sobre todas las etapas de la alineación de la IA, lo que constituye una vara muy alta. Paul Christiano y Chris Olah son ejemplos de personas que han hecho esto.

Heurística de alto nivel para elegir qué trabajo hacer

Si ya eres un ingeniero de software experimentado, considera la posibilidad de aplicar inmediatamente para puestos que no sean de AA, o de capacitarte como ingeniero de AA. Algunos trabajos de ingeniería que se realizan en equipos de alineación no requieren conocimientos de AA. Por ejemplo, crear marcos para trabajar con grandes redes neuronales que no se ajustan a una unidad de procesamiento gráfico, o reorganizar bases de código para hacerlas más limpias y modulares a fin de permitir una experimentación más rápida. Es posible que algunos puestos de ingeniería de AA ni siquiera requieran experiencia en AA si eres un ingeniero de software con suficiente experiencia. Este es al menos el caso de Anthropic: Una larga experiencia programando y aprendiendo de la programación es la parte difícil. AA es la parte fácil, y podemos enseñarla. Te sugiero que leas AI safety needs great engineers, DeepMind is hiring for the Scalable Alignment and Alignment Teams, y Software engineering.

En la medida en que creas que te pueden gustar el aprendizaje automático y la programación, te podría resultar útil leer la sección Cómo dedicarse al trabajo empírico de alineación. Puedes comprobar si te gustan el AA y la programación adquiriendo conocimientos básicos de aprendizaje profundo (AP). Los primeros pasos para los líderes y los colaboradores de investigación son similares, así que puedes seguir esos pasos mientras averiguas cuál es mejor para ti.

En la medida en que te guste la teoría, tengas o puedas obtener una sólida formación matemática/teórica en ciencias de la computación, y creas que podrías disfrutar construyendo modelos integrales de alineación de la IA, te podría resultar útil leer la sección Cómo dedicarse al trabajo teórico de alineación.

Algunas cosas a tener en cuenta al explorar diferentes caminos

Observa si estás disfrutando, creciendo, progresando y obteniendo buenos resultados. Pero no te rindas inmediatamente si no es así. Disfrutar es realmente importante, sobre todo para la investigación. Pero a menudo la gente disfruta más de las cosas a medida que adquiere más dominio, o piensa que ya debería ser buena y sufre hasta que alcanza ese nivel. La gente suele tener mala suerte. Si estás disfrutando y obteniendo buenos resultados, es una gran señal. Si al cabo de un tiempo no te diviertes ni obtienes resultados, considera la posibilidad de dedicarte a otra cosa.

En ocasiones, personas muy capaces no están seguras de su valor, ni bien calibradas para juzgar lo buenas que podrían llegar a ser. He aquí algunas indicaciones más objetivas que puedes utilizar para evaluar tu idoneidad:

  • Líderes de investigación empírica: Para tener una oportunidad decente de entrar en uno de los 20 mejores programas de doctorado en AA, necesitarás (a grandes rasgos) un artículo de seminario del que seas el primer autor y un artículo de conferencia, presentado en NeurIPS, ICML o alguna conferencia similar, del que seas aproximadamente el tercer autor.
  • Colaborador de investigación empírica: Como prueba aproximada para el puesto de ingeniero investigador, si puedes replicar un artículo típico de AA en unos cientos de horas y tus intereses se alinean con los nuestros, probablemente estemos interesados en entrevistarte.⁠1 Las calificaciones importan menos de lo que la gente cree.
  • Investigación teórica: Si crees que podrías acceder a un programa de doctorado de alto nivel en matemáticas o ciencias de la computación por haber optimizado tu licenciatura con ese fin, es una buena señal.

Habla con otros y pídeles que evalúen honestamente si estás bien encaminado para hacer un buen trabajo técnico. Esta es una buena forma de abordar el punto anterior. Facilítales la tarea de decirte que no vas por buen camino en las áreas en las que así sea, por ejemplo, insistiendo en lo útil que sería para ti cambiar cuanto antes a algo en lo que pudieras ser mejor. Podrías hacerlo en Effective Altruism Global, o hablando con 80 000 Horas.

Recursos recomendados:

  • Artículo de 80 000 Horas sobre la aptitud personal.
  • El pódcast y el artículo de Holden Karnofsky sobre las aptitudes.

Cómo dedicarse al trabajo de alineación

Esta es una sección de alto nivel que proporciona un contexto y una heurística de alto nivel para quienes quieran dedicarse a distintos tipos de trabajo de alineación, con referencias a otras secciones del artículo en los que se profundiza más.

Cómo dedicarse al trabajo empírico de alineación

Los primeros pasos para los líderes y los colaboradores de investigación son similares, por lo que puedes seguir esos pasos mientras averiguas que es lo mejor para ti. La disyuntiva de desempeñar funciones de líder o colaborador de investigación dependerá principalmente de tu gusto y tus aptitudes para la investigación, para la reflexión sobre todas las etapas de la alineación y para el aprendizaje automático, en comparación con tu gusto y tus aptitudes para la ingeniería de AA. Lo mismo ocurre en caso de que quieras y puedas acceder a un programa de doctorado de alto nivel. Si no estás seguro, te recomiendo que adquieras conocimientos básicos de aprendizaje profundo, que hagas alguna implementación de AA y que intentes conseguir experiencia en investigación (véase la siguiente sección). A partir de ahí, evalúa tu aptitud personal, lo que podría incluir hablar con otras personas sobre tu aptitud.

Actividades útiles tanto para los líderes como para los colaboradores de investigación empírica

Todo el mundo debería tener conocimientos básicos de aprendizaje profundo: Necesitarás aprender nociones básicas de Python, de matemáticas (álgebra lineal, cálculo y teoría de la probabilidad) y de modelos de AP y su implementación. El AP es, con diferencia, el paradigma dominante dentro del aprendizaje automático, que a su vez es el paradigma dominante dentro de la seguridad de la IA. He incluido los mejores recursos que conozco en la sección sobre aprendizaje profundo básico.

Necesitarás convertirte en un ingeniero de AA decente, incluso si lo que quieres es convertirte en líder de investigación. Para convertirte en un buen ingeniero de AA, necesitarás adquirir experiencia implementando modelos de AP.

  • Te ayudará si ya eres un buen ingeniero de software, y hacer prácticas en tu primer año de licenciatura puede ser una buena inversión, sobre todo si es probable que quieras dedicarte a la ingeniería de AA.
  • Una buena forma de adquirir experiencia en la implementación de modelos de AP, después de asimilar los conocimientos básicos de aprendizaje profundo, es replicar unos cuantos artículos fundacionales en un subcampo en el que tal vez quieras trabajar. Consulta la sección Cómo conseguir puestos de colaborador en investigación (ingeniería de AA) para saber cómo hacerlo. Las réplicas de artículos son esenciales para los puestos de colaborador, y útiles para los puestos de líder. Busca formas de demostrar tu competencia, haciendo que tu código sea abierto y tal vez escribiendo una entrada de blog sobre tu trabajo. Puedes solicitar financiamiento para hacer réplicas de artículos.
  • También puedes mejorar en ingeniería de AA haciendo trabajos prácticos como parte de un curso, o haciendo prácticas de investigación. Pero aprenderás más o menos en función de la tutoría y del proyecto: el mundo académico no es, en general, el mejor lugar para aprender ingeniería de AA: es probable que tus compañeros no sean excelentes ingenieros y que tu asesor no invierta mucho en ayudarte.
  • También te recomiendo que te postules al (competitivo) programa Machine Learning for Alignment Bootcamp (MLAB), de Redwood Research. El plazo para postularse ya ha finalizado, pero es posible que haya convocatorias futuras. Practicar con los problemas de LeetCode probablemente sea útil para ser aceptado.

La experiencia en investigación es esencial para los líderes de investigación y útil para los colaboradores.

  • Los doctorados en AA son muy competitivos hoy en día, y las publicaciones y las cartas de referencia son los principales determinantes para que te acepten. Para tener una oportunidad decente de entrar en un programa de doctorado de los 20 mejores, necesitarás (a grandes rasgos) un artículo de seminario del que seas el primer autor y un artículo de conferencia, presentado en NeurIPS, ICML o alguna conferencia similar, del que seas aproximadamente el tercer autor. Las publicaciones también serán útiles para puestos de ingeniería de AA. Si quieres obtener un doctorado, deberías intentar conseguir toda la experiencia posible en investigación antes de postularte a los programas de doctorado, después de asimilar los conocimientos básicos de aprendizaje profundo, por ejemplo, en el verano de tu segundo y tercer año para titulaciones de cuatro años, porque las publicaciones posteriores a la presentación de tu solicitud no contarán.
  • Adam Gleave escribe sobre cómo adquirir experiencia en investigación aquí. Cuando te pongas en contacto con posibles tutores para las prácticas de investigación, asegúrate de mencionar las cosas que hayas hecho (cursos relevantes que hayas realizado, desde luego las réplicas de artículos que hayas hecho, tu GitHub si demuestra que sabes programar), tus notas si son buenas. Trata de distinguirte claramente de las personas que bombardean el correo electrónico de los profesores con solicitudes para investigar con ellos. Una forma de hacerlo es leer algunos de sus artículos y los principales artículos de su campo, y mencionar eso también. Si tu universidad no puede financiarte para que hagas prácticas de investigación con ellos, puedes solicitar financiamiento.
  • Ten en cuenta que es bastante difícil conseguir dos publicaciones antes de tu cuarto año, ¡y habrá que tener suerte! Si no logras entrar en un programa sólido de inmediato, no te desanimes. Puede que merezca la pena tomarse un año o más después de la universidad para trabajar como ayudante de investigación con el fin de conseguir publicaciones. Podrías conseguir financiamiento para ello.
  • Para los proyectos de investigación, busca a alguien que supervise adecuadamente y que tenga tiempo para ti (no suele ser el profesor más famoso/mejor valorado). El AA es un campo muy nuevo, por lo que algunos profesores que aparentemente trabajan en AA no hacen cosas relevantes para el AP. Asegúrate de que publiquen regularmente en las mejores conferencias. Y trabaja en un tema que tu supervisor considere interesante a fin de recibir muchos comentarios: conseguir una buena tutoría es clave, y perseguir tus propias ideas en este punto es arriesgado y normalmente significa que será difícil conseguir un tutor. No te preocupes por trabajar en algo que ayude a la alineación. Haz cursos de posgrado sobre proyectos cuando puedas; probablemente serán calificados con indulgencia.
  • Recomiendo Research as a stochastic decision process para mejorar en el ejercicio de la investigación.

Adquirir conocimientos de aprendizaje automático: ¿cómo y cuánto? Es más fácil aprender estando inmerso en un entorno de investigación, así que es razonable centrarse en aprender suficiente AA para llegar a ese punto. Eso significa tener conocimientos lo suficientemente amplios como para hablar de las principales áreas del AP de manera sensata y conocer los avances recientes, así como conocer en profundidad el área que quieras abordar. No necesitas aprender todo lo relativo al AA para formar parte de un entorno de investigación, si bien es probable que los líderes de investigación acaben sabiendo bastante de AA. Puedes ampliar tus conocimientos haciendo cursos sobre los subcampos más importantes del AA (véase Aprendizaje automático) y utilizando recursos que recopilen y resuman/expliquen los avances recientes (véase Aprendizaje automático). Puedes profundizar leyendo un montón de artículos principales de un subcampo (más de 10, o hasta que obtengas rendimientos decrecientes) y haciendo tu propia investigación, o trabajos prácticos, o réplicas de artículos. Puedes ver en qué áreas se interesa la gente mirando los blogs de los laboratorios en los que te interese trabajar, o consultando la Alignment Newsletter. Si puedes hacer cursos de AA para obtener créditos, probablemente sea una gran idea. Consulta la sección Aprendizaje automático para más detalles.

Aprender alineación de la IA: ¿cómo y cuánto? Para empezar, te recomiendo AGI safety from first principles (Ngo, 2020) y My overview of the AI alignment landscape (Nanda, 2022) y luego el curso de alineación de la IA de AI Safety Fundamentals o una lectura similar sobre alineación, habiendo dedicado previamente algún tiempo a asimilar conocimientos básicos de aprendizaje profundo. Aprender sobre alineación de la IA es mucho más importante para los líderes que para los colaboradores de investigación: hacer todo lo anterior no es suficiente para los líderes y no es necesario para algunas funciones de colaborador, pero probablemente será muy útil para ambos. Hay consejos mucho más detallados en la sección Alineación de la IA.

Hacer o no un doctorado y cómo hacerlo

Si quieres ser líder de investigación, el camino por defecto es hacer un doctorado. Sin embargo, también es posible empezar a trabajar como ingeniero de investigación y pasar gradualmente a un puesto de líder, aunque en un puesto de ingeniero tendrás menos tiempo para actividades de investigación que en un programa de doctorado. También es posible convertirse en líder de investigación sin un doctorado, si se hace un programa de residencia. Vale la pena señalar que la frontera entre investigador e ingeniero se está desdibujando en lugares como Anthropic y OpenAI. Esto se debe en parte a que se preocupan menos por la imagen que dan los doctorados y en parte a que su investigación se inclina relativamente más hacia la ingeniería (hacia la implementación a gran escala) que hacia la creación de nuevas líneas de investigación. Lo más importante para convertirse en un buen líder de investigación es conseguir la tutoría de un investigador excelente y poder desarrollar la investigación en un buen entorno. Eso se suele conseguir en un doctorado, pero a veces es posible en el ámbito industrial.

Existe un desacuerdo bastante generalizado sobre cuán buenos son los doctorados. Mi impresión es que la mayor parte del desacuerdo se reduce a la eficacia con la que los doctorados desarrollan el gusto por la investigación y las habilidades útiles para la investigación de la alineación y, en segundo lugar, a la rapidez con la que la gente espera que se desarrolle la IAG: si el plazo es de 5 años, los doctorados no parecen una buena idea, porque es probable que no hagan ningún trabajo útil; si el plazo es de 15 años, el problema es menor. Según creo, la principal ventaja de un doctorado es que desarrolla tu gusto y tus habilidades para la investigación, de modo que, cuando te gradúes, seas capaz —idealmente— de establecer y llevar a cabo una (buena) agenda propia de investigación sobre alineación en la industria (ya sea en una organización existente o una nueva) o en el ámbito académico. En su defecto, la idea es que salgas de un doctorado con grandes habilidades de investigación que ayuden con la alineación. Un doctorado también abre algunas puertas que la ingeniería de AA no podría abrir, por ejemplo, puestos de científico investigador en DeepMind o Google Brain.

Aquí tienes algunas preguntas simplificadoras que puedes hacerte para que la decisión sea más fácil:

  • ¿Prefieres dedicarte principalmente a la investigación antes que a la ingeniería de AA o de software? (Si la respuesta es negativa, entonces no hagas el doctorado.)
  • ¿Crees que podrías publicar un artículo de seminario del que seas el primer autor y un artículo de conferencia, presentado en NeurIPS, ICML o alguna conferencia similar, del que seas aproximadamente el tercer autor, antes de licenciarte o poco después (o después de 6-12 meses de investigación de AA a tiempo completo)? (Esta es la vara para tener una oportunidad decente de entrar en uno de los 20 mejores programas; es más alta para los 10 mejores programas.) (Si la respuesta es negativa, entonces quizás no debas hacer un doctorado, pero te sugiero que primero pruebes la investigación.)
  • Si ganaras mucho más dinero, ¿te sentirías mucho mejor? Como ingeniero probablemente ganarías más de $100 000. Puedes solicitar un complemento al salario de doctorado, pero creo que sería algo inusual conseguir un complemento de $100 000.
  • Comparación de opciones específicas:
    • Con algo de trabajo, ¿crees que podrías conseguir un puesto de ingeniero/investigador de AA en el que podrías crecer/progresar/obtener una tutoría mejor de la que esperas en un doctorado? (Si la respuesta es afirmativa, entonces probablemente lo mejor es que no hagas un doctorado.) (Puedes pedirle a la gente que te ayude a comparar tus opciones.) (Puedes hablar con estudiantes de grado de algún profesor y asistir a jornadas de puertas abiertas.)
    • ¿Puedes hacer un trabajo en el doctorado que sea directa o instrumentalmente útil para el trabajo de alineación o que tenga un camino hacia el impacto? (Si la respuesta es afirmativa, el doctorado parece una opción mucho mejor; si no, parece una opción peor.)
    • ¿Vas a estar atado a un tema de doctorado en el que no te sientes seguro (no habiendo muchos otros temas deseables a los que podrías cambiar en la universidad)? (Si la respuesta es afirmativa, entonces el doctorado parece una opción peor, porque es bastante habitual querer cambiar.)
    • A veces, los doctorados pueden hacer que uno se sienta desgraciado. La gente se mete en ellos porque son el camino que siguen por defecto quienes obtuvieron buenos resultados en la licenciatura, cuando en realidad no saben en qué se están metiendo, y luego se desgastan. Es útil pensar de antemano si es más o menos probable que eso te ocurra a ti.
    • ¿Esperas prosperar en un entorno desestructurado con incentivos débiles (es difícil que te echen), y apoyo y bucles de realimentación potencialmente pobres, pero con mucha libertad? (Si la respuesta es no, entonces probablemente es mejor que no hagas un doctorado.) (La aplicación es probablemente un factor determinante en este caso.)
    • Estos son otros factores que no se compaginan bien con los doctorados: neuroticismo alto, depresión, ansiedad y TDAH. Puedes hacer algunas pruebas rápidas de diagnóstico (neuroticismo, depresión, ansiedad, agotamiento) para ver si alguna de esas cosas puede ser motivo de preocupación para ti. Probablemente no te tomes las pruebas demasiado en serio, pero conozco a muchas personas inteligentes que tardaron un año en darse cuenta de que tenían depresión, así que podría valer la pena investigar y hacer un seguimiento (por ejemplo, con terapia) si alguna de esas pruebas es preocupante. Tener alguno de estos factores no te deja fuera del doctorado, pero la investigación será mucho más difícil, y tendrás que tener mucho cuidado de elegir un asesor que te apoye, lo que limita las opciones.

Si no estás seguro de qué camino seguir, puede que valga la pena optimizar la investigación a corto plazo mientras te haces una mejor idea del sentido que tiene para ti el doctorado (o de las ofertas que podrías recibir de un programa de alto nivel), y decidir más tarde, o presentar tu candidatura tanto a doctorados como a puestos de ingeniero investigador de AA y comparar las opciones. La investigación será muy útil para los puestos de ingeniería, siempre que te mantengas alejado de los temas de investigación cargados de teoría y, con el tiempo, hagas suficiente trabajo de ingeniería de AA. Y es una buena prueba de idoneidad. Pero la optimización para la ingeniería de AA no será tan útil para el doctorado, porque lo fundamental son las publicaciones y las cartas de recomendación. Sin embargo, puedes inscribirte a un doctorado después de trabajar como ingeniero investigador de AA en la industria.

Cómo hacer un doctorado: Si estás pensando en hacer un doctorado, te recomiendo enfáticamente que leas Careers in beneficial AI research (Gleave, 2020), FAQ de Rohin Shah, A Survival Guide to a PhD de Andrej Karpathy, y Machine learning PhD applications - Everything you need to know.

Cómo desempeñar funciones de colaborador de investigación (ingeniería de AA)

Lee la sección Actividades útiles tanto para los líderes como para los colaboradores de investigación empírica, que explica cómo adquirir conocimientos de aprendizaje profundo básico, de aprendizaje automático y de alineación de la IA, y cómo conseguir experiencia en investigación. Si estás seguro de que quieres aspirar a un puesto de colaborador de investigación/ingeniero de AA, adquirir experiencia en investigación es menos importante que para los puestos de líder de investigación, pero aun así puede ser una fuente útil de tutoría y desarrollo de habilidades. Un buen conocimiento de la alineación de la IA también es menos importante para conseguir puestos de colaborador de investigación, pero cuánto quieras invertir dependerá de cuánto quieras llegar a dirigir tu propia investigación, e invertir cuando sea posible parece valioso. Consulta la sección Alineación de la IA para más detalles.

Ser un buen ingeniero de software te ayudará a que seas un mejor ingeniero de AA. Si puedes conseguir unas prácticas de ingeniería de software en una empresa destacada desde el principio, probablemente te resultarán valiosas. En términos más generales, tener como tutor a alguien mucho mejor que tú en ingeniería de software probablemente será valioso, al igual que leer mucho código y programar mucho. Además de las prácticas, los puestos de trabajo y tus propios proyectos, podrías conseguir una tutoría contribuyendo a proyectos de código abierto y preguntando a alguna persona veterana de ese proyecto si quiere ser tu tutor. Quizá deberías echar un vistazo a Software engineering, publicado en 80 000 Horas.

Haz réplicas de artículos. Para llegar a ser bueno en ingeniería de AA, tendrás que adquirir experiencia implementando modelos de AA. Una buena forma de hacerlo es replicar algunos artículos fundamentales en un subcampo en el que quieras trabajar. Esto es similar a la tarea de implementar algoritmos novedosos, pero con una ayuda similar a las rueditas de bicicleta: sabes que el algoritmo funciona y cómo tiene que ser un buen rendimiento. También te proporcionará una gran comprensión de los métodos que implementas. Busca formas de demostrar tu competencia, haciendo que tu código sea abierto y tal vez escribiendo una entrada de blog sobre tu trabajo. Puedes solicitar financiamiento para hacer réplicas de artículos. Para más consejos, consulta abajo la sección “Recursos para replicar artículos”.

A continuación te ofrecemos algunas ideas útiles para replicar artículos. Son bastante improvisadas. Si te tomas en serio la idea de dedicar un par de cientos de horas a las réplicas de artículos, sería una buena idea que te pusieras en contacto con el laboratorio en el que quieres trabajar con un plan específico, para que puedan darte su opinión al respecto. Lo ideal sería ver si puedes conseguir a alguien que te guíe. Será útil tener a mano una base de código abierto, por lo que deberías intentar encontrar una antes de comenzar. Consulta la sección Aprendizaje automático para más información.

  • Modelos de lenguaje:
    • Más fácil: Entrena un pequeño modelo GPT-2 desde cero utilizando implementaciones de la arquitectura ya existentes (por ejemplo, de Hugging Face). Quizá probar con grokking.
    • Más difícil: Implementa tú mismo el transformador. También podrías hacer un ajuste fino con preferencias humanas, como en Fine-tuning language models from human preferences o Learning to summarize from human feedback.
  • Aprendizaje por refuerzo (probablemente yo no empezaría por aquí):
    • Más fácil: Intenta replicar uno de los algoritmos comunes de aprendizaje por refuerzo, como DQN/PPO/A3C. Hay artículos que hablan de las formas en que estos métodos no se replican. Consulta Spinning Up in Deep RL como un modo de facilitar el abordaje de estos ejercicios.
    • Más difícil: Deep reinforcement learning from human preferences (consulta también esto) o Generative adversarial imitation learning.
  • Visión artificial:
    • Muy fácil: entrenar un perceptrón multicapa en MNIST.
    • Fácil: entrena una ResNet u otro modelo cercano al estado actual de la técnica en ImageNet.
    • Medio: haz algunos ataques y defensas antagónicos básicos. Quizá quieras jugar primero con esto. Podrías probar algunos ataques y defensas de esta lista de artículos.

Inscríbete en el MLAB: Redwood Research está organizando otro curso intensivo de programación (competitivo) totalmente financiado para el verano de 2022. El plazo para presentar la solicitud ya ha finalizado, pero es posible que haya convocatorias futuras. Practicar con los problemas de LeetCode probablemente sea útil para ser aceptado.

¿Qué hace falta para conseguir un trabajo?

  • DeepMind: Como prueba aproximada para el puesto de ingeniero de investigación, si puedes replicar un artículo típico de AA en unos cientos de horas y tus intereses coinciden con los nuestros, probablemente estemos interesados en entrevistarte.⁠2 Puedes leer sobre sus puestos disponibles aquí.
  • Andy Jones (Anthropic): Es difícil juzgar a simple vista si una persona concreta será adecuada para la ingeniería de seguridad de la IA, pero aquí tienes una buena prueba de fuego: Con unas pocas semanas de trabajo, ¿podrías —¡hipotéticamente!— escribir una nueva función o corregir un error grave en una biblioteca significativa de AA?⁠3 (Advertencia importante: se trata de la persona que Anthropic contrataría inmediatamente y que espera que contribuya en la primera semana. No es una prueba para saber si podrías convertirte en esa persona.) Anthropic habla de su proceso de contratación aquí y de lo que buscan aquí.
  • De un miembro del personal de Redwood Research: Si puedes implementar un transformador en PyTorch, probablemente ya deberías estar hablando con Redwood. Puedes leer sobre sus puestos aquí.
  • Para otros lugares, como Google Brain/Facebook, también necesitarás ser capaz de utilizar LeetCode y tener una alta nota media final. Tener experiencia en investigación de AA ayuda, así como un título de doctorado.

¿Dónde deberías trabajar? Adam Gleave: La mejor forma de aprender ingeniería de investigación es trabajar en algún lugar donde haya tanto ingeniería de alta calidad como investigación de vanguardia. Postúlate para programas de residencia [muy competitivos] en laboratorios industriales. Los cuatro mejores son DeepMind, OpenAI, Google Brain y Facebook AI Research (FAIR); también hay laboratorios más pequeños (pero buenos) centrados en seguridad, como Anthropic y Redwood Research. También hay muchos laboratorios más pequeños como Amazon AI, Nvidia, Vicarious, etc. En general son menos recomendables, pero siguen siendo buenas opciones. Desde que Adam escribió eso, se han formado algunas organizaciones nuevas centradas en modelos de lenguaje que podrían ser buenos lugares para adquirir habilidades. Se trata de Conjecture (centrada en la seguridad), Cohere (algo de seguridad a corto plazo y muchos altruistas eficaces trabajando allí; sin embargo, yo no apostaría a que fuera bueno acabar allí) y Hugging Face (sin seguridad existencial).

Durante los dos primeros años, quizá valga la pena ir a donde puedas crecer más. Después, querrás ir a donde puedas hacer la mejor investigación sobre alineación. Sin embargo, personalmente me preocupa que la gente adquiera habilidades durante un par de años y luego no cambie para hacer el trabajo de alineación más valioso que pueda, porque puede ser fácil justificar que tu trabajo está ayudando cuando no es así. Esto puede ocurrir incluso en laboratorios que dicen centrarse en la seguridad. Sin embargo, trabajar en Anthropic, DeepMind, Redwood Research u OpenAI parece una apuesta segura. Si no puedes trabajar en uno de esos lugares, el hecho de que la adquisición de habilidades fuera de los equipos de seguridad (por ejemplo, en Google Brain o FAIR) sea buena dependerá en gran medida de si esperas poder cambiar más adelante a un trabajo de mayor impacto (lo cual requiere seguir formando tu propia opinión sobre la alineación, y la agencia), de la motivación que tengas haciendo un trabajo que no ayude a la alineación, y de la utilidad de estar rodeado de personas que trabajan en alineación en comparación con personas que son grandes ingenieros de AA: lo primero es más importante cuanto más quieras dirigir tu propia investigación, lo segundo es más importante cuanto más esperes que la ingeniería de AA sea tu principal contribución.

Recursos para replicar artículos:

  • Frances Lorenz (2022) Advice on pursuing technical AI safety research, Effective Altruism Forum, 31 de mayo, sec. 2.1: Consejos sobre la replicación de artículos (de Richard Ngo).
  • Catherine Olsson (2018) ML engineering for AI safety & robustness: a Google Brain engineer’s guide to entering the field, 80,000 Hours, septiembre.
  • Matthew Rahtz (2018) Lessons learned reproducing a deep reinforcement learning paper, Amid Fish, 6 de abril. Este artículo constituye un ejemplo y una prueba de que la implementación de artículos puede ser muy educativa, pero difícil, sobre todo en el ámbito del aprendizaje por refuerzo profundo.
  • Andrej Karpathy (2019) A recipe for training neural networks, Andrej Karpathy’s Blog, 25 de abril.
  • Busca formas de demostrar tu competencia.

Recursos profesionales: Si tienes la intención de dedicarte a la ingeniería de AA, te recomiendo que leas estos artículos:

  • Catherine Olsson (2018) ML engineering for AI safety & robustness: a Google Brain engineer’s guide to entering the field, 80,000 Hours, septiembre.
  • Andy Jones (2021) AI safety needs great engineers, AI Alignment Forum, 23 de noviembre; ¿qué habilidades buscan las grandes empresas de ingeniería que trabajan en seguridad?
  • Rohin Shah & Geoffrey Irving (2022) DeepMind is hiring for the Scalable Alignment and Alignment Teams, Effective Altruism Forum, 13 de mayo.

Cómo dedicarse al trabajo teórico de alineación

No sé mucho sobre trabajo teórico, lo siento. Si eres investigador teórico y tienes ideas sobre cómo mejorar esta sección, ¡házmelo saber! Los caminos para realizar trabajo teórico también se han investigado menos que los caminos para el trabajo empírico, así que no es del todo culpa mía. En cualquier caso, esto es lo que puedo ofrecer:

El trabajo teórico de alineación puede ser más conceptual o más matemático.

¿Cómo es el trabajo conceptual? El trabajo conceptual de alineación a menudo implica razonar sobre comportamientos hipotéticos. Por ejemplo, Mark Xu (del Alignment Research Center) describe la mayor parte de su trabajo como idear propiedades deseables para los algoritmos, comprobar si los algoritmos tienen esas propiedades e intentar encontrar algoritmos que las tengan. Esto es bastante similar al conjunto de habilidades que cabría esperar de un informático teórico. El trabajo suele implicar mucho razonamiento matemático y filosófico. Los investigadores conceptuales también deben tener un gran gusto por la investigación y un gran conocimiento de la alineación de la IA. Esto es para que no se pierdan en investigaciones teóricas que no ayudan a la alineación, lo cual puede ocurrir fácilmente, ya que el trabajo teórico tiene bucles de realimentación bastante pobres. Algunos ejemplos de investigación conceptual son Eliciting Latent Knowledge de Paul Christiano, Risks from learned optimization in advanced machine learning systems de Evan Hubinger, Testing the natural abstraction hypothesis de John Wentworth y el trabajo del MIRI sobre los fundamentos para los agentes.

¿Cómo es el trabajo matemático? Creo que la principal diferencia es que en el trabajo matemático el resultado es la demostración de un teorema, un contraejemplo o un nuevo marco matemático, mientras que en el trabajo conceptual las matemáticas se utilizan como una herramienta (muy buena) para saber si se ha resuelto un problema. El trabajo conceptual es más filosófico: los argumentos rara vez son herméticos y se requiere mucha más capacidad de juzgar. Algunos ejemplos de trabajos matemáticos son Pessimism about unknown unknowns inspires conservatism de Michael Cohen, Infrabayesianism de Vanessa Kosoy, el trabajo de Scott Garabrant sobre Logical induction, Cartesian frames, y Temporal inference with finite factored sets, Cooperative inverse reinforcement learning, y el trabajo de Tom Everett (tesis, trabajo actual). Puedes ver más temas aquí. Esto contrasta con el trabajo conceptual semiformal, del que Risks from learned optimization in advanced machine learning systems, de Evan Hubinger, es un ejemplo fundamental.

¿En qué lugares se dan estos trabajos? El espacio es bastante extraño. No hay organizaciones establecidas que realicen trabajos para los que haya un plan definido. Se trata más bien de una mezcla de gente del mundo académico (que sobre todo trabajan en cosas relacionadas con las matemáticas, por ejemplo Cooperative inverse reinforcement learning, y hace el tipo de trabajo de Michael Cohen), gente independiente con becas (como John Wentworth), el Machine Intelligence Research Institute (MIRI) (que cuenta entre sus miembros a Evan Hubinger, Scott Garabrant y Vanessa Kosoy), el Alignment Research Center (ARC) (que dirige Paul Christiano), algunas personas de DeepMind (por ejemplo, Ramana Kumar, y ahora también algunos miembros de Conjecture.

No sé a ciencia cierta si es mejor trabajar en matemáticas o en investigación conceptual. Afortunadamente, los conjuntos de habilidades son bastante similares, por lo que probablemente puedas probar ambas por un tiempo, mientras desarrollas tus propios puntos de vista sobre el trabajo más valioso, y luego decidir en función de tu opinión sobre el lugar más adecuado para hacer el mejor trabajo.

Cómo probar tu idoneidad para la investigación conceptual: (Realmente no lo sé, lo siento.)

  • Es probable que tengas una idea de cuánto te gusta la teoría y de cuán bueno eres con ella, que es una parte importante. Si crees que podrías acceder a un programa de doctorado de alto nivel en matemáticas o ciencias de la computación por haber optimizado tu licenciatura con ese fin, es una buena señal.
  • El otro componente es ser capaz de formar tus propias opiniones sobre la alineación de la IA y tener cosas interesantes que decir al respecto.
    • El primer paso para probar esto es aprender sobre alineación de la IA, quizás al nivel del curso de alineación de la IA de AI Safety Fundamentals. Podría ser útil adquirir conocimientos básicos de aprendizaje profundo antes de hacerlo.
    • Después, si te ha gustado profundizar en la lectura de temas de alineación, podrías intentar asimilar la visión del mundo de un investigador conceptual, tal vez leyendo y destilando (resumiendo) algunas de sus investigaciones. Aquí hay algunas investigaciones que podrías intentar destilar. El programa ML Alignment Theory Scholars (totalmente financiado) es una forma estructurada de asimilar la visión del mundo de alguien: te asignarán un tutor cuya visión del mundo puedas asimilar. Las solicitudes están cerradas (a partir de junio de 2022), pero es probable que haya futuras convocatorias. Otra forma de asimilar una visión del mundo es leer Reading list, y redactar notas, resúmenes, comentarios, desacuerdos, opiniones, etc., y tal vez enviárselas por correo electrónico.
    • Otra opción es dedicar unas 50 horas a leer sobre un tema específico de la alineación de la IA que te interese, y luego dedicar otras 50 horas a intentar decir algo nuevo e interesante sobre ese tema. (Por ejemplo, intenta elaborar una propuesta para el problema de la extracción del conocimiento latente.) No te actualices demasiado si no tienes mucho que decir; se trata más bien de ver si disfrutas o no con el trabajo y si te parece productivo.
    • Puedes solicitar financiamiento para hacer cualquiera de estos ejercicios.

Cómo probar tu idoneidad para la investigación matemática: (Realmente no lo sé, lo siento).

  • Es probable que tengas una idea de cuánto te gusta la teoría y cuán bueno eres con ella, que es una parte importante. Si crees que podrías acceder a un programa de doctorado de alto nivel en matemáticas o ciencias de la computación por haber optimizado tu licenciatura con ese fin, es una buena señal.
  • Una prueba es repasar la conferencia de Michael Cohen e intentar hacer el ejercicio que propone hacia el final, y después puedes pedirle a Michael que revise lo que has escrito (su correo electrónico es firstname.lastname@eng.ox.ac.uk, y sí, estará encantado de revisar los ejercicios).
  • También podrías dedicar unas 50 horas a leer sobre un tema específico de alineación matemática de la IA que te interese (puedes ver parte de la bibliografía aquí), y luego dedicar unas 50 horas a intentar decir algo nuevo e interesante sobre ese tema (o destilar algún artículo, si decir algo nuevo es demasiado difícil).
  • Por último, podrías hacer prácticas de investigación con un investigador matemático en un área relacionada con la alineación matemática (o investigar directamente sobre alineación, pero solo si tu supervisor ya trabaja en ello). Haz Ctrl+F y escribe “La experiencia en investigación es esencial para los líderes de investigación y útil para los colaboradores” si quieres leer algunos consejos sobre cómo conseguir experiencia en investigación. Podrías ponerte en contacto con investigadores de alineación matemática para hacer prácticas. Tal vez después de escribir algo, como ya hemos indicado más arriba.

Conviene tener en cuenta que dedicarse al trabajo teórico de alineación es mucho más arriesgado que dedicarse al trabajo centrado en el AA, porque adquirirás menos habilidades transferibles que con el trabajo de AA, tendrás menos credibilidad fuera de la comunidad de la alineación y la infraestructura para este trabajo recién está empezando a construirse. Dicho esto, si crees que podrías encajar bien, ¡puede que valga la pena probarlo!

Cómo dedicarse a la investigación conceptual de alineación: De nuevo, realmente no lo sé. Por eso, conseguir una tutoría parece bastante importante. Si puedes producir algo, tal vez a partir de uno de los ejercicios anteriores, creo que Mark Xu o Evan Hubinger estarían dispuestos a conversar contigo y a darte consejos sobre tu carrera profesional. He aquí algunas opciones a corto y mediano plazo: trabajar de forma independiente con una beca (o en una organización existente, aunque probablemente necesitarías un doctorado para ello), trabajar en ARC o MIRI (no estoy seguro de que el MIRI esté contratando actualmente), ser aprendiz de un investigador conceptual, o hacer un doctorado (en matemática/ciencias de la computación, con un profesor inteligente y accesible que publique regularmente en COLT, FOCS o alguna conferencia similar. Es probable que no puedas publicar trabajos de alineación conceptual durante un doctorado, pero podrías adquirir habilidades útiles). Mi opinión es que la tutoría debería ser la consideración principal al principio de tu carrera profesional: trabajar con un investigador experto en alineación conceptual y ser tutelado por él es probablemente mejor que hacer un doctorado (a menos que tengas la oportunidad de trabajar estrechamente con un asesor realmente competente o alineado con tus valores), y es probable que un buen doctorado sea mejor que el trabajo independiente. Si decides ser aprendiz de un investigador conceptual, o trabajar en ARC/MIRI, algunos de los ejercicios de la sección anterior te serán útiles: leer, destilar y asimilar la visión del mundo de alguien, publicar en el AI Alignment Forum, e intentar captar más tutoría desde allí. En términos más generales, recomiendo dedicar tiempo a aprender sobre alineación de la IA y formar tu propia opinión. Conviene señalar que la investigación conceptual está especialmente limitada por la tutoría en este momento, por lo que podría ser difícil trabajar estrechamente con un investigador conceptual experto. No obstante, probablemente valga la pena intentarlo y, en particular, todo el mundo debería postularse para entrar en ARC.

Cómo dedicarse a la investigación matemática de la alineación: (Realmente no lo sé, lo siento.) Probablemente deberías leer gran parte de la bibliografía sobre alineación matemática (puedes ver una selección de la bibliografía aquí). En términos más generales, te recomiendo que dediques tiempo a aprender sobre alineación de la IA y que formes tu propia opinión. Hacer un doctorado teórico en el Center for Human-compatible AI (CHAI) me parece una gran apuesta. También sería bueno que pudieras hacer un doctorado teórico sobre algo relacionado con la alineación. Debería poder llevarse a cabo aunque el profesor no trabaje en alineación, siempre que sea muy inteligente y consigas convencerlo de que el tema puede publicarse. Podrías asimismo trabajar en algo que te ayude a desarrollar habilidades para la alineación, como la teoría de la probabilidad aplicada a la IA, o alguna parte teórica de las ciencias de la computación (busca profesores que publiquen en COLT, FOCS o alguna conferencia similar). Quizá así consigas una mejor supervisión. Haz Ctrl+F y escribe “Cómo hacer un doctorado” para más información sobre cómo conseguir un doctorado en AA; gran parte de lo que ahí se dice debería poder aplicarse a los doctorados teóricos. No obstante, ¡intenta hablar con alguien más experto que yo antes de lanzarte a hacer un doctorado!

Aprendizaje

Aprendizaje profundo básico

Esto es solo lo básico: He incluido material suficiente para que tengas una comprensión básica de los modelos de aprendizaje profundo y del modo de implementarlos. Esto no es todo lo que necesitas para convertirte en un gran líder o colaborador de investigación empírica. En particular, vale la pena invertir en programación y matemáticas más allá de lo que se indica aquí. Omite mis sugerencias si ya tienes los conocimientos/habilidades necesarios.

Cuándo hacer qué: La programación y las matemáticas pueden hacerse en paralelo. Los cursos de aprendizaje profundo (AP) requieren conocimientos básicos de programación y matemáticas. En sentido estricto, puedes entender el AP con unos conocimientos muy básicos de álgebra lineal y cálculo. Pero tarde o temprano tu falta de fundamentos te causará problemas. Dicho esto, probablemente puedas empezar cómodamente a estudiar AP después de un semestre de clases de matemáticas, mientras sigues construyendo fundamentos matemáticos más sólidos.

Programación: Necesitarás saber programar y leer código en Python. Para eso, te resultará útil este enlace: www.learnpython.org/. También cuenta la habilidad de ser capaz de hacer cosas en el ecosistema Python, que la gente suele adquirir lentamente porque no se enseña. Para eso, recomiendo The Hitchhiker’s Guide to Python, y The Great Research Code Handbook. Quizá puedas conseguir financiamiento para pagar un tutor. Aquí tienes algunos recursos adicionales que pueden resultarte útiles: Things i wish someone had told me when i was learning how to code, Top coding resources and tools for beginners (+ beyond) in 2021.

Matemáticas: Las siguientes son las áreas de las matemáticas necesarias para adquirir conocimientos básicos de aprendizaje profundo. Otras áreas de las matemáticas —como la estadística— pueden ser directamente útiles y la experiencia matemática más allá de lo escrito aquí es ciertamente útil.

  • Álgebra lineal: La serie de vídeos de 3Blue1Brown es buen complemento para la intuición. Para una base más sólida, querrás tomar la clase de introducción de tu universidad (o la del MIT; no la he tomado, pero probablemente sea buena) y probablemente alguna clase más teórica. Si quieres un libro de texto para después de una clase de introducción, te recomiendo Linear Algebra Done Right.
  • Cálculo: La serie de vídeos de 3Blue1Brown abarca el cálculo básico. Toma el curso de cálculo multivariable de tu universidad para tener una base más sólida (o el del MIT; no lo he tomado, pero probablemente sea bueno).
  • Probabilidad: Un curso posible es Introduction to Probability (MITx), pero puede que tu universidad tenga un curso que comprenda contenidos similares. Tomar cursos de estadística siempre que sea posible probablemente también ayudará.

Aprendizaje profundo: El AP es, con diferencia, el paradigma dominante dentro del aprendizaje automático, que a su vez es el paradigma dominante dentro de la IA. Comprender bien el AP es esencial para todo trabajo empírico de alineación. Te recomiendo que adquieras experiencia práctica haciendo algo como (1) a continuación, y haz una de (2) o (3). Participar en el ML Safety Scholars Programme (totalmente financiado) durante el verano parece una forma excelente y estructurada de aprender AP.

  1. fast.ai ofrece un curso práctico de aprendizaje profundo que adopta la perspectiva de la programación (frente a una perspectiva matemática o estadística). Si ya tienes un cierto conocimiento de cómo funciona el AP, probablemente sea mejor aprender con los tutoriales de PyTorch. También puedes aprender de esos tutoriales después de hacer el curso de fast.ai. PyTorch es un buen entorno para empezar, pero si ya eres bueno con TensorFlow o JAX, probablemente no necesites utilizar PyTorch hasta que un proyecto o trabajo lo requiera.
  2. Deep Learning Specialization (Andrew Ng), tu clase de AP estándar (CS230 en Stanford).
  3. Deep Learning por la Universidad de Nueva York (LeCun).

Aprendizaje automático

Resumen: Es más fácil aprender estando inmerso en un entorno de investigación, por lo que es sensato centrarse en hacer lo suficiente para llegar a ese punto. Eso significa tener la amplitud suficiente para hablar de las principales áreas del AP con sensatez, conocer los avances recientes y tener conocimientos profundos del área en la que quieras especializarte. No necesitas aprender todo lo relacionado con el AA para formar parte de un entorno de investigación, aunque, con el tiempo, los investigadores de AA deberían saber mucho de AA. Tomar cursos universitarios de AA siempre que puedas es probablemente una buena idea. Puedes ampliar tus conocimientos haciendo cursos sobre los subcampos más importantes del AP (véase “Aprender sobre los subcampos del AP”) y utilizando recursos que recopilen y resuman/expliquen los avances recientes (véase “Recursos”). Puedes profundizar leyendo varios de los principales artículos de un subcampo (más de 10, o hasta que obtengas rendimientos decrecientes) y haciendo tu propia investigación, o trabajos prácticos, o réplicas de artículos (aunque esto lleva un tiempo, y puede que no valga la pena para los investigadores). Puedes ver en qué áreas se interesa la gente echando un vistazo a los blogs de los laboratorios en los que te gustaría trabajar, o consultando la Alignment Newsletter (véase “Recursos”).

Aprender sobre los subcampos del AP: Una vez que hayas terminado con lo básico del aprendizaje profundo, deberías tener los conocimientos necesarios para entrar en cualquiera de estas áreas. Yo no me preocuparía demasiado por dominar todas estas áreas de inmediato, sobre todo si eso supone un obstáculo para la investigación o la ingeniería.

  • Procesamiento del lenguaje natural (PLN):
    • Transformadores modernos: conferencia, artículo sobre el transformador OG, GPT-2 o GPT-3, ajuste fino con preferencias humanas.
    • Técnicas de PNL de la vieja escuela: Stanford CS 224n: (programa con enlace a las notas, clases en YouTube)
      • (No está claro hasta qué punto es útil, pero puede valer la pena si quieres investigar en PNL.)
  • Aprendizaje por refuerzo:
    • Deep Reinforcement Learning (breve entrada de blog)
    • OpenAI Spinning Up in Deep RL: (enlace) (resumen de la teoría del aprendizaje profundo por refuerzo y muchos ejercicios de aplicación)
    • Berkeley Deep RL (conferencias en YouTube). Requiere algo de teoría de la probabilidad como base, especialmente para las últimas conferencias sobre la inferencia.
  • DeepMind RL Lectures (conferencias en YouTube).
  • Visión artificial:
    • Módulo 2 del CS231n de Stanford: (notas del curso, conferencias en YouTube) (bastante breve, unas 20 páginas).

Recursos: (¡No tienes por qué estar al día con todas estas cosas! Consulta las fuentes que te gusten y te beneficien).

  • La Alignment Newsletter es un boletín que destaca y resume artículos importantes de muchas subáreas del AA relevantes para la seguridad. Puedes consultar esos artículos y áreas aquí. Estar al día con este boletín es bueno para tener amplitud, y la base de datos es buena para profundizar en diversos subcampos.
  • Mirar las presentaciones de NeurIPS e ICML de un subcampo determinado es una forma decente de comprenderlo, es decir, de saber en qué están trabajando y qué les preocupa. Se puede hacer en una tarde.
  • Import AI, el boletín de Jack Clark.
  • La ML Safety Newsletter, de Dan Hendrycks; r/mlsafety.
  • Two Minute Papers.
  • Yannic Kilcher explica una gran variedad de artículos sobre aprendizaje automático en vídeos de 30-60 minutos.
  • ML Street Talk: pódcast en el que se debaten diversos temas relacionados con el AA. Muy bueno para conocer las ideas de los principales expertos en la materia.
  • arXiv sanity preserver; connected papers.
  • Sigue los blogs o las cuentas de Twitter de los grandes actores/investigadores en IA (yo me informo sobre todo en Twitter).
  • AGI Safety Core, lista de Twitter.
  • El blog de Lilian Weng.

Cómo leer artículos: En algún momento tendrás que ser capaz de leer bien los artículos. Aquí tienes algunos recursos para aprender a hacerlo. La mayoría de las veces, querrás estar en modo “ojear” o en modo “comprender en profundidad”, no en un punto intermedio.

  • Resumen de la guía de Andrew Ng (Enlace original)
  • Guía de Yannic
  • FAQ, ‘Q. How should I read things efficiently?’.
  • El software de repetición espaciada de Anki es realmente útil para algunas personas. La sección relevante es “Using Anki to thoroughly read a research paper in an unfamiliar field”.

Alineación de la IA

Comparado con otros campos de investigación —como las matemáticas o la física teórica—, el espacio de la alineación centrado en el altruismo eficaz no tiene tanto contenido. Aún se necesitan meses de estudio a tiempo completo para estar completamente al día, pero puedes avanzar más rápido aplicando el principio de Pareto (80/20. Además, no todo el mundo tiene que ser un experto.

Buck: Creo que es relativamente normal que los estudiantes universitarios tengan una comprensión bastante buena de las áreas de alineación que han estudiado.

Buck: Intenta dedicar un par de horas a la semana a leer cualquier contenido relacionado con la seguridad de la IA y el altruismo eficaz que te interese. Tu objetivo debería ser algo así como “durante los años que estoy en la universidad, debería llegar a pensar en la mayoría de estas cosas con bastante detenimiento” en lugar de “necesito entender todas estas cosas ahora mismo”.

Un camino para aprender sobre alineación

Para empezar: Recomiendo AGI safety from first principles (Ngo, 2019) y My overview of the AI alignment landscape (Nanda, 2022). Si quieres saber más sobre la motivación para tener en cuenta el riesgo asociado a la IA, te recomiendo Por qué la alineación de la inteligencia artificial podría ser difícil con las técnicas modernas de aprendizaje profundo (Cotra, 2021) y The “most important century” blog post series (Karnofsky, 2021), que también están disponibles en formato de audio.

El curso de alineación de la IA de AI Safety Fundamentals: Te recomiendo que te inscribas para participar en el curso sobre alineación. Si tienes tiempo, también puede ser valioso el curso sobre gobernanza. Cada curso dura unas 5 horas semanales, durante 8 semanas. Para aprovechar al máximo el programa, yo lo haría después de adquirir conocimientos básicos de aprendizaje profundo.

La Alignment Newsletter es un boletín realmente bueno. Resume el trabajo reciente en alineación de la IA y AA. Un ejercicio (entre muchos) que te ayudará a orientarte sobre lo que está ocurriendo es leer las secciones destacadas de las 20-50 ediciones más recientes de este boletín (lleva unas 10 horas). Esta lectura requiere cierta formación en aprendizaje automático, por lo que puede que necesites adquirirla previamente, o durante la lectura. Algunos consejos:

  • Cuando estés pensando en leer algo, consulta primero la base de datos de la Alignment Newsletter para ver si hay un resumen. La base de datos contiene artículos y sus resúmenes, y puedes filtrar por área (por ejemplo, interpretabilidad) y por importancia. Es especialmente útil si quieres informarte rápidamente sobre un área. Puedes considerar hacer clic en esto ahora mismo para ver lo maravillosa que es esta base de datos :)
  • Déjate llevar por tu entusiasmo, tu curiosidad y tu confusión. Examina en profundidad los artículos si es algo que te resulta apasionante.
  • Si no entiendes algo, puede que necesites volver a un boletín anterior relacionado con el tema.
  • Considera la posibilidad de motivar tu lectura con una pregunta o incertidumbre, como “¿por qué la gente cree que la interpretabilidad es importante?”, “¿qué ocurre con las leyes de escalamiento y por qué son importantes?”, o cualquiera que sea la incertidumbre que consideres más importante.

Mantente al día: con la Alignment Newsletter, LessWrong, el EA Forum, el AI Alignment Forum (AF), la ML Safety Newsletter, leyendo artículos que te entusiasmen. Blogs/Twitter de los laboratorios de alineación. También está el pódcast de 80 000 Horas, el pódcast de AXRP (los episodios de Richard y Paul son excelentes puntos de partida; los de Beth y Evan también lo son), el pódcast del FLI y el canal de YouTube de Rob Miles. Hay un montón de contenido, ¡así que tendrás que filtrar! Una forma de filtrar es echar un vistazo a la Alignment Newsletter. Si quieres leer cosas antiguas, en el AF puedes ordenar las publicaciones en función de los votos recibidos.

Algunas personas piensan que leer mucho es bueno, sobre todo para el trabajo conceptual. El consejo es “léelo todo”. Esto no será posible ni bueno para la mayoría de la gente. Pero si puedes encontrar la forma de dedicar 500 horas a la lectura activa de contenidos sobre alineación, probablemente te resultará muy útil para formar tu propia opinión. Quizá quieras probar varios recursos, porque algunos te resultarán mucho más divertidos de leer. La Alignment Newsletter es una fuente. Otras son el blog de Paul Christiano (difícil de leer, pero puede resultarte encantador), los diálogos del MIRI (también difíciles de leer, pero jugosos), y Rationality (que fascina a algunas personas y desalienta a otras). Leer mucho no es un buen consejo si quieres hacer cosas muy competitivas, como un doctorado en AA, porque tendrás que dedicar mucho tiempo a conseguir experiencia en investigación.

Formar tus propias opiniones sobre la alineación es importante cuando tienes el control sobre la dirección de tu trabajo

Recomiendo leer FAQ de Rohin Shah (haz Ctrl+F y escribe “How can I do good AI alignment research?”), How I formed my own views about AI safety (Nanda, 2022) y Want to be an expert? Build deep models (Bye, 2021). Copiaré de algunas cosas de estos textos y añadiré mi propia interpretación, pero creo que vale la pena leerlos directamente.

Rohin Shah:

Queremos pensar, descubrir algunas cosas que hacer, y luego, si hacemos esas cosas, el mundo será mejor. Una parte importante de esto, obviamente, es asegurarte de que las cosas en las que pienses sean importantes para los resultados que quieres que se produzcan.

En la práctica, me parece que lo que ocurre es que la gente entra en una zona, mira a su alrededor y presta atención a lo que hacen los demás. Pasan unos minutos, posiblemente horas, pensando: “Bien. ¿Por qué estarán haciendo esto?” Me parece una forma excelente de iniciarse en un campo. Es lo que yo hice.

Pero luego continúan y básicamente permanecen en este camino durante años, hasta donde yo sé, y la verdad es que no actualizan modelos como “Bien, así es como el trabajo que estoy haciendo conduce realmente al resultado”. No intentan buscar fallos en ese argumento o ver si se les escapa alguna otra cosa.

La mayoría de las veces, cuando observo lo que hace una persona, realmente no veo eso. Mi expectativa es que esto reducirá la utilidad de su trabajo en varios órdenes de magnitud.

¿Qué significa “formar tus propias opiniones”? Me refiero a algo así como crear un modelo detallado, partiendo de algunas creencias básicas y razonables sobre el mundo, que te lleve a una conclusión como “trabajar en la alineación de la IA es importante” o “esta dirección de investigación parece que podría mover la aguja del riesgo existencial asociado a la IA” o “la IA que busca poder implica una alta probabilidad de extinción”, sin tener que remitirse a las opiniones de otras personas. Lo ideal es que ese modelo tenga profundidad, de modo que si haces doble clic en cualquier parte de la cadena argumental, es probable que allí haya sustancia. Algunos buenos ejemplos de este tipo de razonamiento son My personal cruxes for working on AI safety de Buck Shlegeris, AGI safety from first principles de Richard Ngo y Draft report on existential risk from power-seeking AI de Joseph Carlsmith”.

¿Por qué formar tus propias opiniones?

  • Investigarás mucho mejor. Cuando el trabajo no está estructurado, necesitas tu propio marco conceptual en el que trabajar, y necesitas consultar ese marco para decidir qué hacer. Incluso dentro de áreas como la solidez o la interpretabilidad, hay direcciones que son órdenes de magnitud más valiosas que otras. En la mayoría de los casos no tenemos proyectos que puedan seguir un plan definido en este momento. Si estuviéramos seguros de que resolver el Alignment Theorem™ o aplicar la Alignment Technique™ bastaría para evitar que la IA provoque la extinción, no habría necesidad de formarse una opinión propia. Por desgracia, ese no es el mundo en el que vivimos.
  • Podrías mejorar la frontera del conocimiento: Existe un desacuerdo generalizado sobre cuál es el trabajo que podría ayudar: la mayoría de los investigadores piensan que una gran parte de la investigación sobre alineación que no es la suya es inútil, cuando no perjudicial. Es una situación realmente extraña. Muy poca gente ha pensado en detalle la totalidad del problema. Y muchos de los mejores trabajos de los últimos años han venido de gente (junior) que pensaba a gran escala.
  • Es motivador hacer un trabajo en el que crees, sobre todo si estás investigando.

No necesitas tus propias opiniones de inmediato, y quizá tampoco más adelante:

  • Cuanto más control tengas sobre la dirección de tu trabajo, más querrás invertir en la formación de tus propias opiniones; los líderes de investigación necesitan esto mucho más que los colaboradores: DeepMind está dispuesta a hablar con colaboradores de investigación que tengan conocimientos muy básicos sobre alineación (por ejemplo, que “pueden explicar submetas convergentes instrumentales”), lo que significa que podrías contribuir de manera útil sin formarte nunca opiniones detalladas sobre la alineación. Aunque en este caso, tendrías que confiar en que DeepMind está haciendo una investigación valiosa y no podrías dirigir la investigación.
  • Puedes formarte tus propias opiniones gradualmente. Ciertamente, mientras aprendes AA/ingeniería/investigación no necesitarás puntos de vista sólidos sobre la alineación. Pero querrás haber pensado en la alineación con bastante detenimiento para cuando elijas qué estudiar a nivel de doctorado, por ejemplo.
  • Puede asustarte y paralizarte que te digan que formar tus propias opiniones es importante. Si te asusta o te paraliza, te sugiero que leas How I formed my own views about AI safety.

¿Cómo formar tus propias opiniones? He aquí algunas ideas:

  • Modela a otras personas: habla con la gente e intenta comprender sus puntos de vista (leer activamente el trabajo de alguien también es útil, quizá antes de hablar con él). Construye un modelo de lo que creen y por qué, y luego intenta integrarlo en tu propio modelo y en tus modelos de otras personas. Puedes preguntarles, por ejemplo: “¿Tienes una teoría del cambio sobre cómo tu investigación reduce el riesgo existencial? ¿Podrías intentar explicármela?”. A continuación, parafrasea hasta que seas capaz de describir su opinión a otra persona -no la entenderás por defecto; parafrasear facilita que te corrijan- y retoma cualquier confusión que puedas tener.
  • Realiza una investigación de confianza mínima (Karnofsky, 2021).
  • Realiza algunos ejercicios de investigación de alineación (Ngo, 2022). Estos ejercicios son bastante específicos, y puede que no estén dirigidos a los aspectos más importantes. Pero están estructurados, lo que resulta útil.
  • Piensa desde los primeros principios: abre un documento en blanco, configura un cronómetro en una hora y empieza a escribir sobre una pregunta, tal vez una de las siguientes, o sobre si la alineación de la IA es el problema más importante en el que debes trabajar.

Preguntas relacionadas con pronósticos:

  • “¿Cuán probable es la extinción provocada por la IA?” es la principal. Luego hay algunas preguntas subordinadas a ella:
  • “¿Cuándo se desarrollará la primera IAG?”.
  • “¿Cómo será el mundo cinco años antes y un año después de la primera superinteligencia?
  • “¿Serán principalmente los fallos de alineación o los fallos de coordinación los que originen los problemas?”. En términos más generales, “¿qué esperas que contemplen las fuerzas del mercado? ¿Qué esperas que se descuide?”.
  • “Si conseguimos una alineación correcta en el primer intento, ¿qué probabilidad hay de que más tarde se despliegue una IAG desalineada?

Preguntas técnicas:

  • “¿Qué estrategias de alineación realmente alinean a la IA?” (Aquí es donde hay mucho desacuerdo en la práctica.)
  • “¿Qué estrategias de alineación pueden implementarse a gran escala y son competitivas?”.
  • “¿Cómo podemos asegurarnos de que las estrategias buenas y teóricamente posibles sean lo suficientemente prácticas como para ser implementadas?”

Recursos:

  • Rohin Shah (2021) FAQ: Advice for AI alignment researchers, Rohin Shah, 4 de enero (haz Ctrl+F y escribe “How can I do good AI alignment research?”).
  • Neel Nanda (2022) How I formed my own views about AI safety, Effective Altruism Forum, 7 de marzo.
  • Lynette Bye (2021) Want to be an expert? Build deep models, Effective Altruism Forum, 4 de diciembre.
  • Buck Shlegeris (2020) Some thoughts on deference and inside-view models, Effective Altruism Forum, 28 de mayo.
  • Buck Shlegeris (2020) How I think students should orient to AI safety, EA Student Summit 2020, 24 de octubre.

Financiamiento

La gente no solicita financiamiento suficientemente. He aquí algunas refutaciones a objeciones comunes a la solicitud de financiamiento:

  • no es necesario que estés realizando una investigación valiosa sobre la alineación de la IA en este momento para que te financien;
  • los estudiantes son los principales objetivos de la financiación, porque es probable que el dinero les resulte especialmente útil;
  • ser rechazado probablemente no te afectará negativamente en el futuro, siempre que seas honesto y tengas buenas intenciones;
  • la gente suele estar mal calibrada sobre el valor de su propuesta;
  • quienes conceden las subvenciones realmente quieren financiar buenos proyectos.

¿Para qué puedes solicitar financiamiento? He aquí algunas cosas para las que podrías solicitar financiamiento al Long-Term Future Fund (LTFF):

  • Tiempo de aprendizaje: para estudiar por tu cuenta AA o alineación de la IA, para trabajar como ayudante de investigación en una universidad (no hay problema si no se trata de investigación sobre alineación), para visitar centros de alineación de la IA y hablar o trabajar con la gente que está allí.
  • Trabajo independiente: para realizar trabajos independientes de alineación (véase esto), o ayudar a construir la comunidad de alineación de la IA en tu universidad o en otro lugar.
  • Cosas personales/de productividad: para pagar a un terapeuta (enlace a la prueba de depresión; conozco a muchas personas inteligentes que tardaron un año en darse cuenta de que tenían depresión) o a un entrenador de productividad, para comprar un buen portátil o escritorio o silla, para pagar por un espacio de trabajo, para cubrir tu propio presupuesto de productividad, o para compensar económicamente el tiempo que pasarías en cualquier trabajo inútil que tuvieras que hacer para vivir, incluido el trabajo docente.
  • Tutoría: para AA, programación, clases universitarias, economía (?), o financiación para un curso intensivo de AA o programación.
  • Titulaciones oficiales: hay becas disponibles para licenciaturas y posgrados; también hay becas disponibles para pagar las matrículas de conferencias o de doctorado.

A menudo es fácil solicitar financiación; por ejemplo, la solicitud del Long-Term Future Fund tarda entre 1 y 2 horas.

Cómo presentar una solicitud: Procura que la solicitud sea honesta y directa. Si el objetivo es ayudar directamente con la alineación, haz tu mejor estimación sobre la posibilidad de que tu proyecto ayude a la alineación y sobre cómo lo haría. Si el objetivo es avanzar en tu carrera, escribe cómo esperas que avance tu carrera en relación con la situación contrafáctica. Si no tienes señales confiables de tu competencia y de tu alineación, te ayudará tener una referencia que te conozca y que sea respetada por el organismo financiador. Si tienes alguna de esas dos cosas, considera la posibilidad de presentar tu solicitud inmediatamente. Si no, sigue considerando la posibilidad de solicitarla inmediatamente. Pero si quieres tener más posibilidades, podrías hacer primero un proyecto de alineación y publicarlo en LessWrong, por ejemplo como parte del curso de alineación de la IA de AI Safety Fundamentals, o del programa ML Safety Scholars (totalmente financiado), o como parte del proceso de formación de tus propias opiniones sobre la alineación.

Fuentes de financiamiento:

  • Long Term Future Fund. Puedes presentar tu solicitud en cualquier momento, y tienen un plazo de respuesta corto. Por defecto, yo la presentaría aquí.
  • Tu universidad podría financiarte para que hagas investigaciones con ellos.
  • Open Philanthropy: becas para estudiantes universitarios.
  • Open Philanthropy: financiamiento para el inicio de la carrera profesional de personas interesadas en mejorar el futuro a largo plazo.
  • La Open Phil AI Fellowship. Para estudiantes de doctorado en seguridad técnica de la IA (bastante competitivo).
  • Survival and Flourishing Projects (estrechamente relacionado con el Survival and Flourishing Fund).

Consejos generales útiles para tu carrera profesional

Busca formas de demostrar tu competencia

He hablado sobre todo de cómo llegar a ser competente. Esto es lo más importante y debería ser tu principal objetivo al principio; además, es mucho más fácil parecer competente cuando realmente lo eres. Pero cuando empiezas a hacer cosas competitivas, como solicitudes de trabajo o de doctorado, es útil poder demostrar tu competencia para distinguirte de los demás.

Una vez que sepas a qué competencias aspirar, encuentra señales difíciles de falsear de que eres competente y empléalas en proyectos que aumenten tu competencia. Busca formas de sacar provecho de tus competencias/las cosas interesantes que haces. También puedes preguntar a la gente de la comunidad/empleadores qué señales considerarían difíciles de falsear. Para los doctorados, hay que tener en cuenta esta fórmula: hacer investigación < artículo arXiv < artículo publicado < artículo publicado + carta de referencia de alguien que haya visto a muchos estudiantes y tenga un buen historial de predicción del éxito en la investigación. Del mismo modo, replicar un artículo de AA < replicar un artículo de código abierto < replicar un artículo de código abierto + entrada de blog sobre lo que has aprendido. La investigación infructuosa < entrada de blog sobre la investigación infructuosa… Probablemente pronto tendrás un montón de conocimientos/habilidades/cosas interesantes que has hecho, que la gente no conocerá. A veces, es fácil transformarlos en una señal de competencia haciendo que tus conocimientos/habilidades/cosas interesantes sean legibles y visibles.

Céntrate en ser excelente al principio de tu carrera

La mayor parte de tu impacto se produce al final de tu carrera. Al principio de tu carrera (durante los primeros años después de la licenciatura, al menos), debes centrarte en hacer cosas en las que puedas crecer y llegar a ser excelente. Puedes preguntarte a ti mismo (y a los demás) dónde es más probable que crezcas, y entonces dirigirte allí. Puede que se trate de organizaciones de alineación, o puede que no. El crecimiento depende en gran medida de tu entorno y de la tutoría que tengas a tu disposición. La gran mayoría de tutores buenos se encuentran fuera de la alineación: la alineación está muy limitada por los tutores. Si te conviertes en un excelente ingeniero/investigador de AA o en un investigador teórico, probablemente te resultará fácil especializarte más adelante en el trabajo de alineación empírico o teórico. Desde luego, está bien (y tal vez sea preferible, debido a las publicaciones) hacer investigación no relacionada con la alineación como estudiante universitario.

Dicho esto, puede que no sea bueno llegar a ser excelente si eso implica hacer avanzar las capacidades de la IA. Aunque hay matices en las “capacidades”: trabajar en la mejora de la aproximación de la inferencia bayesiana (entre inútil y quizá útil para la alineación) es muy distinto de ampliar la escala de grandes modelos de lenguaje (probablemente bastante malo). Sin embargo, Anthropic cree que mantenerse en la frontera de las capacidades es necesario para hacer un buen trabajo de alineación, así que no sé hasta qué punto es coherente la dicotomía capacidades-seguridad (es un área activa de debate).

Una de las formas en que trabajar en cosas que no ayudan a la alineación puede salir mal es quedarse atascado haciendo investigación que parece que ayuda, pero que en realidad no lleva a tener impacto, como la solidez aleatoria o la investigación sobre interpretabilidad. Esto puede ocurrir incluso si te unes a un equipo de seguridad. Para evitarlo, te recomiendo que sigas formando tus propias opiniones sobre la alineación, que hables con personas más expertas en alineación sobre tus decisiones profesionales, y que no abandones la intención de considerar realmente dónde puedes hacer la mejor investigación sobre alineación una vez que hayas adquirido algunas habilidades.

Comprometerte con la comunidad de alineación de IA te ayudará mucho

¿Por qué? Me resulta un poco difícil explicar esto. Cuando veo que la gente empieza a frecuentar las comunidades de alineación, parece que empieza a hacer cosas mucho mejores. Eso puede deberse a que recibe apoyo o tutoría, a que adquiere conocimientos implícitos, a que está más motivada o a que empieza a ser consciente de las oportunidades. Aquí tienes algunas formas de participar:

  • Asesoramiento de 80 000 Horas. Animo a todo el mundo a que se postule. Es una buena forma de obtener asesoramiento profesional y conectar con investigadores en alineación. La solicitud es rápida.
  • Estar en lugares con gente que se dedica a la IA, como Berkeley, o en menor medida Oxford/Nueva York/Londres. Hablar regularmente con gente especializada en la alineación de la IA es lo principal, y eso puede hacerse en cualquier lugar, pero es más fácil en unos sitios que en otros.
  • Effective Altruism Global. Puedes hablar con la gente y establecer contactos para conseguir una tutoría. Intenta tener reuniones individuales con personas que tengan más experiencia que tú. Cuéntales tu plan y pregúntales cómo puedes mejorarlo.
  • AI safety support + su boletín.
  • AI Safety Fundamentals tiene una comunidad en Slack.
  • Los grupos locales de altruismo eficaz, aunque puede que no tengan una comunidad de alineación fuerte.
  • Publicar en LessWrong/el AI Alignment Forum.

Cuídate

Realmente no sé qué escribir aquí. Lo que sí sé es que cuidarse es extremadamente importante. Yo me agoté mientras intentaba trabajar en la alineación de la IA, y puedo dar fe de lo malo que es el agotamiento. No me siento demasiado cualificado para dar consejos aquí, pero puedo decir algunas cosas que me parecen útiles: Si tu trabajo se convierte en un trabajo pesado que te desanima cuando te levantas, en lugar de ser una fuente de fuerte deseo interno, creo que es algo a lo que deberías prestar atención. Puedes hacerte pruebas diagnósticas ahora mismo o con regularidad para la depresión, la ansiedad y el agotamiento (lleva menos de 30 minutos en total). Y tal vez deberías consultar a un terapeuta si algún resultado de esas pruebas te preocupa, o incluso de forma preventiva. Esto es algo para lo que puedes conseguir financiamiento. Tener buenos tutores, jefes y compañeros te ayudará mucho.

Intentar trabajar en la alineación de la IA puede ser especialmente malo para la salud mental de algunas personas. He aquí algunas de las razones:

  • creer que todos podemos morir puede ser realmente aterrador y totalizador;
  • no hay muchos puestos de trabajo en alineación en este momento, y las oportunidades en AA en general son bastante competitivas;
  • es posible que no consigas ayudar con el trabajo de alineación técnica, y eso puede ser desalentador;
  • algunas de las acciones que sugiero son difíciles y no están estructuradas —como formar tu propia opinión sobre la alineación o replicar artículos— y mucha gente no se desenvuelve bien en entornos no estructurados;
  • la “alineación técnica de la IA” no es una carrera profesional bien definida ni un conjunto de carreras, y suele ser difícil saber qué es lo mejor que se puede hacer.

No quiero que te sientas mal contigo mismo si tienes dificultades o no puedes ayudar de una forma concreta. Si tienes dificultades, considera la posibilidad de hablar con tus amigos, con personas que hayan pasado por experiencias similares, hablar con el equipo de AI Safety Support, tomarte un tiempo libre, hacer terapia o probar otro tipo de trabajo o entorno.


Esta es una traducción directa del artículo original, publicado bajo licencia CC BY 4.0.