|

财经

SFC Outlook 2025丨专访国际知名人工智能专家斯图尔特·罗素:我们需要一个安全且能造福人类的AI系统

来源:21世纪经济报道

2025-01-23 12:16:01

(原标题:SFC Outlook 2025丨专访国际知名人工智能专家斯图尔特·罗素:我们需要一个安全且能造福人类的AI系统)

南方财经全媒体记者 袁思杰 香港报道

近年来,全球人工智能市场规模正加速扩张。国际数据公司(IDC)报告显示,2022年全球人工智能IT总投资规模有望在2027年增至5,124.2亿美元,年复合增长率(CAGR)为31.1%。

与此同时,目前通用人工智能(AGI,Artificial General Intelligence)的研究仍在探索阶段,人类尚未实现真正的AGI,即能够像人类一样在多种领域和任务中具备学习、推理、规划、创造力和情感理解等能力的智能系统。与现有的弱人工智能(ANI)不同,AGI的目标是实现通用的认知能力,而不仅仅是针对特定任务的优化。

近日,国际知名人工智能专家斯图尔特·罗素接受了南方财经全媒体记者专访,他指出,仅靠不断搭建和叠加大语言模型 (LLMs)无法实现通用人工智能 (AGI),而人类需要不仅是比自身更智能的系统,还需要确保是对自身安全和有益的。

在此前的多次演讲中,罗素曾多次表示ChatGPT和GPT-4并不理解世界,也没有在“回答”问题,“如果说通用人工智能是一件完整的拼图,大语言模型仅仅只是其中的一块,但我们并不真正了解如何将它与拼图的其他部分连接起来,以真正实现通用人工智能。”

斯图尔特·罗素(Stuart Russell)是人工智能领域的著名学者,现任加州大学伯克利分校电气工程与计算机科学系教授、世界经济论坛人工智能理事会联席主席。作为人工智能、机械人和机器学习领域的先驱,斯图尔特·罗素撰写了人工智能领域的经典教材《人工智能-现代方法》,这部权威著作已被翻译成 14 种语言,在超过 130 个国家的 1500 多所大学中被使用。

2024年3月,罗素曾和特斯拉CEO埃隆·马斯克、“AI教父”杰弗里·辛顿(Geoffrey Hinton)和图灵奖得主约书亚·本吉奥(Yoshua Bengio)等上千人签署公开信,呼吁暂停训练比GPT-4更强大的AI系统至少六个月。公开信指出,当前人工智能实验室陷入了一场失控的竞赛,开发的大模型已经超出了人类的理解和控制能力。因此,实验室和独立专家应该利用这段时间共同开发和实施一套共享的安全协议,确保AI系统的安全性,并由独立外部专家进行审计和监督。此外,信中还强调,AI开发人员应与政策制定者合作,加快建立强大的AI治理系统。

罗素认为,需要有一种思路来约束AI的不当行为,“有些事情我们不希望AI系统做,比如我们不希望AI系统擅自开始自我复制、侵入其他电脑系统,或者告诉恐怖分子怎么制造生物武器。那么我们就应该规定,在产品问世前,开发者应向监管方证明该系统不会有这些行为。”

大语言模型无法真正思考问题

《21世纪》:你曾提到大语言模型 (LLMs)无法实现通用人工智能 (AGI)。LLMs已展现出瞩目的能力,您为何认为其仍无法将我们带往AGI?

罗素:基于我们对大语言模型及其表现的观测来看,它们在实证上有局限,比如它们经常无法回答哪怕非常简单的推理问题。此外,还有一些技术局限,比如大语言模型是一个回路,人与系统进行的对话就是上下文,当我们将该上下文送入该回路,信息便一层一层经过回路,由另一端输出结果——也就是对话的下一句话或是先前问题的答案。

这个系统无法真正思考问题,只是信号输入,经过回路,信号输出。处理时间也是固定的,它也不能花更多时间思考答案。所以,有些问题它就是无法回答的,因为那些问题就不可能在那么短的时间里答出来。这是一个根本性的局限。

OpenAI正在尝试的就是,如果一次循环回答不了某个问题,那就循环100次,让大语言模型分步解决问题。但这个方法也不总是有效。对于需要更多思考的问题,这种系统就会浪费大量时间在得不出答案的错误思路上。因此,在这些问题上若无突破,我们就无法实现AGI。

《21世纪》:如果这种方式不可行,你认为我们应采取何种方式才能实现AGI?

罗素:如我所说,人们已经意识到仅靠搭建LLMs是不足以实现AGI的,并且正在尝试其他方式。我认为对于那些方式,系统确实需要逐步推理。现在的问题是,如何引导推理?如何加以控制,从而在合理时间内推出正确结论?

这是困扰了人工智能界70年的难题,要实现真正的AGI,需要在这个问题上有所突破。但是,我们想要的不仅是比人类更智能的系统,还需要确保对人类安全、有益。

我们假设,还有另一种实现AGI的方式,比如向外星文明发送信息,请求将超智能AI送至地球。信息送达后,我们就有AGI了,但最后发现它完全不受我们控制,这样做也不安全。

我们不想这么做,但我们正在做的也几乎如此,因为我们正在尝试通过结果不受控的方式创造AGI。通过大语言模型建造的系统很有可能本质上就是不安全的,因为大语言模型的训练目标是模仿人类语言行为。我们以数十亿的人类书写、说话样本作为训练数据,训练系统表现得完全和人类一样。而我们人类产生行为是出于目标,比如想和某人结婚;比如希望致富,所以希望有人来采购;希望掌权,所以希望有人来投票。而训练系统模仿人类,就是在创造具有这些目标的系统。但我们不希望AI系统萌生与人类结婚的想法,不希望AI系统志在富有、志在掌权。所以,通过训练其模仿人类来构建AI系统,从根本上就是危险的,不应如此。

AI需要被严格监管

《21世纪》:考虑到潜在风险,我们目前应加强对AI 的监管吗?

罗素:是的。我认为,有这样一种监管的思路。有些事情我们不希望AI系统做,比如我们不希望AI系统擅自开始自我复制、侵入其他电脑系统、或者告诉恐怖分子怎么制造生物武器。那么我们就应该规定,在产品问世前,开发者应向监管方证明该系统不会有这些行为。人们正在努力抑制AI的这些不当行为,但效果不佳。现在看起来,要让系统“干坏事”非常容易。

《21世纪》:我记得你也签署了暂停训练强于ChatGPT 4的大模型的联名信。

罗素:很多人对那封信嗤之以鼻。有人认为,这就是浪费时间,没人会在意。但实际上,接下来的六个月,确实没有强于ChatGPT 4的系统发布。各国政府也开始正视这个问题。大约三周后,中国就发布了《生成式人工智能服务管理暂行办法》;美国在白宫召开紧急会议;联合国也关注此事;英国政府在几个月后宣布将举办人工智能安全峰会。所以我认为那封信还是效果显著的。

AGI能否实现对投资至关重要

《21世纪》:你认为哪些领域将从与日俱增的AI相关投资中获益最多?

罗素:投资的很大一部分已经投入更多数据中心的建设了,所以这些资金就流向了芯片供应公司,以及为数据中心提供网络、空调、电力系统等支撑的公司。

其余的一大部分将流向基础模型公司。它们从大量数据中训练出基础大语言模型,并转化成特定应用下的实用产品,我认为这个领域是会有大幅增长的,但我们仍处在试验阶段。

另外一个最主要的经济领域是软件工程,这是个大领域。还有一些稍小的领域,包括平面艺术和广告文案撰写等。我认为今年仍是如此。但如果我们不能找到更多大的应用领域,我不知道投资者们会不会失去耐心。自动驾驶汽车领域就是例证。在美国,之前至少有十几家企业对自动驾驶汽车大量投资,而现在只剩一家。

如果我们不能实现AGI ,数万亿美元的投资和公司市值将化为乌有,对全球经济来说将是一个极大的破坏。所以这么看来,要在未实现AGI 的情况下让投资有所值,这样的中间地带是非常狭窄的。而对于我们有多大可能突破AGI,又有多大可能迎来AI大崩塌及其泡沫的破裂,不同的人有不同的看法。

《21世纪》:您如何看待中国目前的AI发展模式及其在各行业具体应用上的独特优势与潜力?

罗素:比如在教育领域,研究表明,孩子在一对一真人导师辅导下学得比在一般的教室授课中快得多。理论上,我们可以给每个孩子配备一名AI导师。过程中仍然需要真人教师来让孩子理解教育的过程,激励他们,帮助他们社交,教他们如何与他人合作等。

我们还不知道如何让AI做到这些,但我认为机会是可观的。中国很可能是会在此投资的国家。中国的营利教育公司似乎已经相对成功,所以我认为他们有动力尝试创造这样高效的AI导师。这仍然非常困难。虽然已经有一些尝试,但我认为还有相当长的路要走。

策划:于晓娜 

记者:袁思杰

监制:朱丽娜

编辑:和佳

设计:林军明

视频制作:袁思杰

出品:南方财经全媒体集团

 

证券之星资讯

2025-01-23

证券之星资讯

2025-01-23

首页 股票 财经 基金 导航