OpenAI Sam Altman对AI的最新思考:5( 九 )


当你考虑像你提到的Retro或其他公司这样的公司时,你是如何决定这个人是否是你可以承担这个超长期探险的人呢?
Sam:
实际上,我已经认识Joe很长时间了 。

我想这是一个不好的例子,问题是实际上是,你是否需要认识这个人很长时间?
Sam:
这非常重要,虽然并非总是有效,但我尽量与我认识了十年以上的人合作 。
你当然不想只做这类合作,你希望在混合中有新的能量和波动性,但与你相识已久、与你合作已久的人占有一定比例,我认为这是非常有价值的 。
就像在的例子中,我已经认识Greg (联合创始人)很久了,我可能在我们创办公司之前只认识Ilya一年,甚至不到一年,但我们在一起度过了很多时间 。这是一个很好的组合 。
我从与人们的长期工作关系中得到了极大的快乐,经过几十年的时间,通过多个项目,感觉像是一起建设向着一个很长的弧线前进的事情,这是非常有趣的 。

同意 。
嗯,哪家并未被视为AI公司的公司将在未来五年从AI中受益最多?
Sam:
我认为有一种投资工具会找出如何利用AI成为一个非凡的投资者,并且有着疯狂的超额回报,所以像是利用这些新技术的 。

那么,你看到有哪家(上市)运营公司呢?
Sam:
嗯,你认为微软是一家AI公司吗?

就此问题而言,我们假设答案是否定的 。
Sam:
我认为微软将在几乎所有方面都将通过AI进行自我变革 。

那是因为他们更认真对待这个问题,还是因为微软的性质使他们特别适合这个问题,更能理解这个问题?
Sam:
他们比其他人更早地认识到这个问题,并且比其他人更认真地对待这个问题 。
对监管的态度:过度官僚化监管可能会拖慢创新速度和意愿

你认为我们会意识到GPT-4在某种程度上过度拟合了它所接受训练的问题的可能性有多大?
或者说,我们如何知道它是否过度拟合了,或者你甚至是否考虑过度拟合作为一种关于代码强制问题的担忧,你知道,比如在21年之前和之后的问题,早期(模型)的问题表现更好,等等 。
Sam:
我认为基本模型并没有显著地过度拟合,但是我们对RLHF(强化学习和人类反馈)过程的理解还不够,我们可能在这个过程中对模型造成了比我们意识到的更大的破坏 。

你认为G,也就是普遍的智力指标在人类中存在吗?除了作为一个统计学的产物之外?如果答案是肯定的,你认为在模型中存在类似的共同因素吗?
Sam:
我认为这是一个非常不精确的概念 。但是,很明显,它在人类和模型中都有一些实际的含义 。所以我认为,我们可能过度解读了这个概念,当人们试图去讨论它时,往往会有太多的显著性数字 。但是,我的经验确实告诉我,非常聪明的人可以很快地学习很多事情,尽管我不会说是任意的事情 。有些人在某一种事情上比另一种事情更擅长 。我不想在这里过多地争论细节,但我会说,我相信模型的智力也会在某种程度上有所不同 。

基于你的经验,你如何看待所有这些AI安全问题?你认为合成生物学应该如何被监管?
Sam:
我希望我们不再有另一种合成病原体导致全球大流行 。
我想我们都同意这不是一次好的经历,虽然与可能发生的情况相比,这并不算太糟糕;但我对此并没有更多的全球协调行动感到惊讶 。我认为我们应该有更多的协调行动 。

那么我们实际上该怎么做呢?因为我认为与人工智能一样,同样的挑战也适用于合成生物学 。我认为这是一种生产装置,你知道,合成病原体的生产装置并不一定那么大,观测和遥测是困难的 。