OpenAI 首席科学家雅库布・帕乔茨基:AI 今年可自主生成有价值的软件
5 小时前 / 阅读约4分钟
来源:IT之家
《自然》杂志采访了 OpenAI 首席科学家雅库布・帕乔茨基,讨论了AI能否生成原创科研成果、人工通用智能(AGI)的前景,以及公司即将推出的开源模型。

IT之家 5 月 14 日消息,《自然》杂志采访了 OpenAI 首席科学家雅库布・帕乔茨基,讨论了人工智能能否生成原创科研成果、人工通用智能(AGI)的前景,以及公司即将推出的开源模型。

IT之家附问答内容大意如下:

Q:越来越多的科学家开始使用推理模型。这些模型在五年内可能带来哪些变化?

A:

如今,你与模型互动时,它更像是一个需要不断引导的助手。我预计,这种状况会发生重大变化。

我们已经看到了像 OpenAI 的 Deep Research(一个能够整合大量信息的工具)能够在没有监督的情况下工作 10 到 20 分钟,并且能产生有用的结果。但解决这些问题所需要的计算资源相对较少。

如果你有开放的研究问题,值得在这类问题上投入更多的计算。我预计,我们会拥有能够进行原创研究的 AI。例如,在自动化软件工程和硬件组件的自主设计等领域,将会有很多进展,其他学科也会出现类似的应用。

Q:在 OpenAI 推理模型的开发中,基于试错和奖励的“强化学习”有多重要?

A:

最初的 ChatGPT 版本包括一个无监督的预训练阶段,模型通过摄取大量数据构建“世界模型”。然后,我们通过强化学习的过程,借助人工反馈,提炼出一个实用的助手。

最新的推理模型进展可以看作是更重视强化学习阶段,这样我们不仅仅是提取信息,还让模型能够找到自己的思维方式

一个问题是,是否应该继续将这些学习阶段分开看待。推理模型不是在空白中学习思考,它们是基于预训练模型的基础进行的。我的工作重点之一就是研究这个阶段,并融合不同方法,理解它们的相互作用。

Q:你提到模型在“思考”。那么,模型是否真的在推理?还是它们只是在模拟推理的过程?

A:

我们需要明确一点:模型的工作方式和人类大脑的工作方式不同。预训练模型学到了世界的一些知识,但它并不真正理解自己是如何学到这些的,也没有时间顺序感。

我相信,我们已经有足够证据表明,模型能够发现新的见解。我认为这可以算作是一种推理,但这并不意味着它与人类的推理方式完全相同。

Q:奥尔特曼曾表示,OpenAI 将很快发布开源模型,这是自 2019 年 GPT-2 以来的首次。你能告诉我这些计划的详细情况吗?

A:

我对此非常兴奋,尤其是能够为研究人员提供一个开源模型的机会,让他们能够下载并进行进一步训练。随着这些模型的不断进步,我们需要承担更多责任,了解它们的部署方式如何影响人类。

我认为,要发布具有开源权重的前沿模型会非常困难,主要是出于安全考虑。我希望能够发布一个比现有开源模型更好的版本

Q:你对 AGI 的定义是什么?你认为我们何时能够实现它?

A:

我(对 AGI)的时间表和定义都发生了很大的变化。刚进入研究生院时,我看到了 AGI 的一个重要里程碑 —— 围棋,之前我认为还需要几十年。显然,围棋在 2016 年就被攻克了,那一刻让我感到震撼。

2017 年加入 OpenAI 时,我还是公司内最大的怀疑者之一,但里程碑的突破比我预期的要快。在图灵测试方面,我们已经取得了显著进展。接下来,问题是数学和问题解决能力呢?我们在这些方面也取得了很大进展,我预计最具挑战性的基准测试将很快被超越。

因此,我目前在关注的下一个重要里程碑是,人工智能能否在经济上产生实际的、可量化的影响,尤其是能否创造原创的科研成果。对我而言,这接近我以前对 AGI 的情感定义。我们现在正专注于这个方向,预计到本十年结束时,我们将取得非常显著的进展。甚至今年,我也预计 AI 将能几乎自主地生成有价值的软件,尽管可能不会解决重大的科学难题