来源:半导体行业观察
2025-10-14 09:05:54
(原标题:我国科学家研究的芯片,突破世纪难题)
公众号记得加星标,第一时间看推送不会错过。
来源:内容来自光明日报。
北京时间10月13日晚,北京大学研究团队实现高精度可扩展模拟矩阵方程求解的研究结果发表在《自然·电子学》(Nature Electronics)。该项研究由北京大学人工智能研究院孙仲团队主导,并联合集成电路学院研究团队完成。
论文题目为《Precise and scalable analog matrix equation solving using resistive random-access memory chips》(《基于阻变存储器芯片的高精度、可扩展模拟矩阵方程求解》),开创性的提出了全硬件实现的高精度、可扩展的模拟矩阵方程求解电路设计方案。首次将模拟计算精度提升到了数字计算同等水平,同时算力和能效提升百倍以上。困扰模拟计算发展的低精度“世纪难题”,在该研究团队“十年磨一剑” 的创新和坚持下,画上了完满的句号。
这不仅实现了高精度模拟计算从0到1的突破,彻底扣开了模拟计算芯片在信息时代应用的大门,也凸显了中国团队在新型计算芯片研究领域的引领能力。
孙仲表示,“这项工作的最大价值在于它用事实证明了,模拟计算能以极高效率和精度解决现代科学和工程中的核心计算问题。可以说,我们为算力提升探索出一条极具潜力的路径,有望打破数字计算的长期垄断,开启一个算力无处不在且绿色高效的新时代。”
回望计算机发展史,人类总是在“精确”与“高效”间寻找平衡。数字计算教会了机器严谨的逻辑,带来了足够的精确,然而却牺牲了整体的效能。工程师们以超绝的智慧一步一步克服了众多“不可能”,创造了人类历史上最精巧的制作品之一“数字芯片”。但随着AI时代的深入,数字芯片在精巧这一赛道的终点几乎触手可及。面对不可逾越的物理极限和依旧无法满足需求的运算能力,越来越多的前沿科学家将希望寄托于模拟计算。模拟计算的高效高速低耗完美适配了当前的计算需求,然而其精度缺陷同样明显,成为了模拟计算应用中沉重的枷锁。
团队此次发表的这一成果,强有力的消除了这一缺陷,建立了模拟计算新的发展起点。
模拟计算的复兴,或许能让机器学会“直觉式思考”——就像人脑可以低耗能的同时处理声音、图像、触觉的并行计算那样。其高效低耗的特性有望颠覆当前众多领域的硬件底层,带来个性化的安全的新AI,响应灵敏度大幅提升的机器人和自动驾驶,更快速稳定的6G信号网络,我们迎来的不仅是技术升级,更是一次认知世界的维度跃迁。
“三把钥匙”解开世纪难题
为什么过去模拟计算始终无法兼顾精度和规模?北京大学团队的突破性工作给出了答案,而秘密藏在三个关键创新中:
第一把钥匙是新型存储器技术——阻变存储器(RRAM)。 这种器件堪称“电子界的变形金刚”,其电阻值能被精确调控为多个状态。更妙的是,RRAM在断电后还能保持数据,使得它既是存储器,也可以用作计算单元。当它们排列成阵列时,物理的实际位置与矩阵的数学位置形成了天然的对应关系,在适当的电路设计下,整个芯片就变成一个超高效的“模拟计算工厂”。电流会沿着阵列交叉点自动完成乘加运算,反馈连接赋予电路求解方程的能力,这一过程自然优雅又简洁高效,在极低能耗的前提下,运算速度比数字芯片快几个数量级。
第二把钥匙源自团队2019年的奠基性发现。 他们首次设计出能“一步求解矩阵方程”的模拟电路——把传统迭代算法压缩成瞬间完成的物理过程。这项突破当时发表于《美国科学院院刊》,是新型计算范式领域发表于该杂志的少数几篇论文之一,为后来的高精度计算奠定了基础,但当时受限于器件性能,精度仅为4-6比特。如今,通过将低精度矩阵求逆(LP-INV)与高精度矩阵乘法(HP-MVM)迭代结合,他们实现了“用粗糙的草图快速定位,再用精细的笔触修正细节”的效果。
第三把钥匙是“位切片”技术。早期模拟计算机曾用数模混合提升精度,而团队在2019年的研究基础之上,寻找到了关键突破口,成功将其升级为纯模拟版本:把24位精度的数字拆解成多个3位片段,分别存入不同RRAM阵列运算,最后像拼乐高一样叠加结果。以“分而治之”的策略,让原本只能处理“儿童简笔画”的模拟电路,突然具备了绘制“超写实油画”的能力。
从实验室到现实:一场计算范式的革命
这项突破最震撼之处在于实测表现:求解矩阵方程仅需几次迭代就能达到24位精度(相当于手机GPU的浮点计算精度),而128天线规模的6G通信信号检测的运算步骤也从数百步成功降低为了3步就能完成。这意味着什么?
对AI领域,它可能彻底改写游戏规则。当前大模型训练卡在“算力瓶颈”,传统数字芯片采用串行计算,需要将复杂计算拆解成数百万个简单步骤。这种计算方式的复杂度呈立方级增长:100x100矩阵的求解时间是10x10矩阵的1000倍!此外,每个步骤都要在处理器和内存间来回搬运数据,造成“数据搬运瓶颈”——CPU和内存间的数据往返消耗了95%的能量。而RRAM模拟计算电路能一步求解矩阵方程,100x100矩阵的求解时间和10x10矩阵的相当。此外,RRAM阵列存储数据的同时又能直接计算,就像在仓库里就地加工原料,省去了运输成本。未来,模拟芯片或许能让手机直接训练GPT-4级别的模型,催生出“自进化”的智能终端。
在6G通信中,它解决了“信号检测”这个关键痛点。 传统基站处理256-QAM高阶调制信号时,数字芯片就像用放大镜逐个辨认密密麻麻的星座点,而模拟计算则是“一眼识图”。实验中,团队用模拟电路完美恢复了北京大学校徽图像,准确率与数字处理器完全相同,但能耗仅为百分之一。这为未来“空天地海”全域覆盖的6G网络提供了硬件基石。
更令人兴奋的是潜在的新应用场景:气象预报中秒级完成流体力学方程求解,自动驾驶实时处理4D雷达点云,甚至量子计算的误差校正——这些需要超高速并行计算的任务,都可能因模拟计算而突破临界点。就像内燃机催生了汽车工业,高精度模拟计算或许正开启一个“物理智能”的新纪元。
https://www.nature.com/articles/s41928-025-01477-0
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4194期内容,欢迎关注。
加星标第一时间看推送,小号防走丢
求推荐
半导体行业观察
2025-10-14
半导体行业观察
2025-10-14
AI蓝媒汇
2025-10-14
半导体行业观察
2025-10-14
半导体行业观察
2025-10-14
半导体行业观察
2025-10-14
证券之星资讯
2025-10-14
证券之星资讯
2025-10-14
证券之星资讯
2025-10-14