Paul Christiano es un investigador estadounidense especializado en la seguridad de la IA. Christiano dirige el Alignment Research Center y es miembro del consejo de Ought y asesor técnico de Open Philanthropy. Anteriormente, fue investigador asociado en el Future of Humanity Institute y dirigió el equipo de alineación de modelos de lenguaje en OpenAI.
Paul Christiano (2021) AMA: Paul christiano, alignment researcher, AI Alignment Forum, 28 de abril.
Richard Ngo (2020) EA reading list: Paul christiano, Effective Altruism Forum, 4 de agosto.
Chi Nguyen (2020) My understanding of Paul Christiano’s iterated amplification AI safety research agenda, Effective Altruism Forum, 15 de agosto.
Issa Rice (2018) List of discussions between Paul Christianoand Wei Dai, Cause Prioritization Wiki, 28 de febrero.
Robert Wiblin & Keiran Harris (2018) Dr Paul Christiano on how OpenAI is developing real solutions to the “AI Alignment Problem”, and his vision of how humanity will progressively hand over decision-making to AI systems, 80,000 Hours, 2 de octubre.
Paul Christiano. Sitio web.