OpenAI又一位高级员工出走
原创2024-11-01 20:24

OpenAI又一位高级员工出走

出品|虎嗅科技组

作者|孙晓晨

编辑|苗正卿

头图|视觉中国


近日,OpenAI资深员工Miles Brundage宣布从OpenAI离职,并称专注于AI安全研究的“AGI Readiness”团队将被解散,其余成员将被分配于其他团队。

 

作为“AGI Readiness”团队的高级顾问,Miles Brundage离开OpenAI难免引起对AI安全的关注,他在 Substack的一篇帖子中表示,短时间内,在迎接通用人工智能(AGI)方面,包括OpenAI在内的众多人工智能实验室并未做好准备,世界也未做好准备。

 

 

为什么从OpenAI离职,Miles Brundag表示自己更希望从外部影响人工智能的发展。

 

Miles Brundag认为,自己留在OpenAI不得不面对更高的机会成本,这将不利于他从事更为重要的课题研究。尽管Miles Brundag认为人工智能行业的发表限制具有合理性,但是过多的限制其实不利于自己对重要话题的发表与讨论,而OpenAI则面临着多方面的审查。

 

Miles Brundag希望可以减少偏见,而存在独立于行业的声音对此极为重要。他强调自己已经完成了大部分打算在OpenAI完成的事情,而关于世界对人工智能的管理方面,他认为自己在外部会有更有效的贡献。

 

针对人工智能相关政策制定,Miles Brundag认为人工智能造福全人类需要政府、非营利组织、民间社团和行业的决策者作出深思熟虑的选择,这需要强有力的公共讨论来提供信息。

 

人工智能有着极为明显的优点,其缺点也同样明显。伴随人工智能的快速发展,政策制定者也需要快速采取行动。Miles Brundag对此表示兴奋,他一方面认为符合公众所需的人工智能政策想法还未出现,一些观点不好或者过于模糊,而另一方面他指出我们确实拥有一些被需要的想法亟待实施。一些意识或者政治意愿处于缺失状态,这是Miles Brundag不想将自己局限于研究的一项原因。

 

Miles Brundag指出,数十家公司将在几年时间内拥有足以造成灾难性风险的系统,提高前沿人工智能的安全性非常紧迫。

 

由于包括私人和社会利益的错位等诸多原因,公司和政府不一定会在默认情况下给予人工智能安全性应有的关注。Miles Brundag认为,监管可以减少私人和社会之间的利益错位,对人工智能技术的安全性做出把控。

 

在人工智能的经济影响方面,Miles Brundag表示,在未来几年内,人工智能可能会带来足够的经济增长,如果有适当的政策来确保财富公平分配,人们能够轻松实现提前退休。

 

人工智能可能会在短期内破坏迫切需要工作的人的机会,Miles Brundag对此表示担心,但他同时认为人类最终要消除以工作为生的义务,迈向“后工作世界”。

 

除了对前沿人工智能安全性的监管以及经济影响的关注,Miles Brundag还对人工智能进展的评估预测、加速有益的人工智能应用、计算治理以及整体“人工智能大战略”等多个课题表达了兴趣。

 

关于离职后的计划,Miles Brundag表示自己将成立新的非营利组织,或者加入现有的非营利组织,致力于人工智能政策研究和倡导。

 

Miles Brundag表示自己的兴趣是全球性的,但自己可能会更专注于自己更为熟悉的国家,如美国。

 

OpenAl为Miles Brundag提供了资金、API信贷和对新成果的早期模型访问,并保证不会有与这种支持相关的出版前审查,但是出于对独立性的考虑,Miles Brundag在文章中表示自己尚未决定是否接受这些提议。

 


本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定