OpenAI CEO公布AGI规划,谨慎思考超级智能风险与人类未来( 三 )


成功过渡到一个拥有超级智能的世界可能是人类历史上最重要、最有希望、最可怕的项目 。成功远未得到保证,而风险(无限的不利因素和无限的有利因素)有望将我们所有人团结起来 。
可以想象到一个人类繁荣到任何人都无法完全想象的世界 。希望为世界贡献一个与这种繁荣相一致的AGI 。
04.
结语:通往AGI之路,
收获了很多礼物
在文章末尾,阿尔特曼留下脚注,称似乎收获了很多礼物:“例如,创建AGI似乎需要大量的计算,因此世界将知道谁在研究它,似乎超进化的强化学习智能体的原始概念相互竞争,以我们无法真正观察到的方式进化智能的可能性比最初看起来的要小,几乎没有人预测我们会在预先训练的语言模型上取得这么大的进展,这些模型可以从人类的集体偏好和输出中学习,等等 。”
他相信,AGI可能在不久的将来或遥远的将来出现;从最初的AGI到更强大的后续系统的起飞速度可能会慢或快 。许多人认为在这个2x2矩阵中最安全的象限是短时间线和缓慢的起飞速度;更短的时间线似乎更易于协调,更有可能因较少的计算积压导致较慢的起飞,而较慢的起飞使有更多时间来实证弄清楚如何解决安全问题以及如何适应 。
“当我们第一次启动时,我们并没有预料到扩展性会像现在这样重要 。当我们意识到它将变得至关重要时,我们也意识到我们原来的结构将不起作用——我们根本无法筹集到足够的资金来完成我们作为非营利组织的使命——所以我们想出了一个新的结构 。”阿尔特曼说 。
“我们现在认为,我们最初关于开放的想法是错误的,已经从认为我们应该发布所有东西(尽管我们开源了一些东西,并期望在未来开源更多令人兴奋的东西!)转向认为我们应该弄清楚如何安全地共享系统的访问权限和好处 。”他谈道,“我们仍然相信,社会理解正在发生的事情的好处是巨大的,实现这种理解是确保构建的东西是社会集体想要的最好方式(显然这里有很多细微差别和冲突) 。”
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务 。每日推荐范围未来科技发展趋势的学习型文章 。目前线上平台已收藏上千篇精华前沿科技文章和报告 。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台 。扫描以下二维码或点击本文左下角“阅读原文”