突破瓶颈!我国新型芯片研发成功。
发布时间:2025-10-24 12:50
近日,北京大学人工智能研究院孙中研究员团队与集成电路系研究团队成功研制出基于阻变存储器的高精度、可扩展的模拟矩阵计算芯片,首次实现了精度可与数字计算相媲美的模拟计算系统。 通过解决大规模 MIMO 信号检测等重要科学问题,该芯片的计算性能和功效比当今领先的数字处理器 (GPU) 高出数百或数千倍。相关文章于10月13日发表在《自然电子》杂志上。 对于大多数习惯数字计算机(0和1)的人来说,“模拟计算”是一个既老又新的概念。什么是模拟计算? 孙忠第一次用一个形象的比喻来解释。 “现在的芯片都是数字计算,数据首先要转换成一串0和d 1 秒。例如,数字10必须转换为1和0,即为1010。如果用二进制表示“1+1=2”,则记录为“1+1=10”。 孙忠说:“模拟计算不需要这种程度的‘转换’,它是一种‘模拟计算’,可以直接用连续的物理量(如电压、电流)来类比数学数字。比如数学中的‘10’可以直接用10伏或10毫伏的电压来表示。” 模拟计算机在计算发展的早期(20 世纪 30 年代至 1960 年代)得到广泛应用。然而,随着计算任务变得越来越复杂,准确性的瓶颈逐渐显现,并逐渐被数字计算所取代。孙忠指出,这项研究的核心是解决模拟计算中“计算不准确”的问题。 合影 目前市场上主要的CPU和GPU都是数字芯片,并且都采用Neumann结构,帽子将算术和存储功能分开。它通过01数字流的编辑+计算+解码来进行信息的计算和传输。 基于阻变存储器的模拟计算的优点之一是省去了将数据转换为二进制数字流的过程,并实现了程序化数据存储,允许数据计算和数据存储过程融合,释放计算能力。 孙忠指出,与其他“计算存储一体化”解决方案相比,国内外许多团队专注于研究m乘法(AI推理的核心),而他的团队则专注于解决更困难的矩阵方程(二次AI训练的核心)。矩阵求逆运算需要非常高的计算精度,时间复杂度达到三阶级别。仿真计算基于物理定律的直接计算,具有明显的广告优势。具有低功耗、低延迟、高能效、高并行性等优点。计算误差的持续减少和计算精度的不断提高将导致传统GPU计算能力的爆发性进步。 高精度全模拟矩阵计算,求解矩阵方程 在计算精度方面,该团队能够成功地以 24 位点精度对 16x16 矩阵进行实验逆演。求解矩阵方程10次迭代后,相对误差低至10-7。计算性能方面,在解决32x32矩阵求逆问题时,其计算能力超越了高端GPU的单核性能。当问题扩展到 128x128 时,计算性能达到最佳数字处理器的 1,000 倍以上。这款芯片可以在一分钟内完成传统GPU一天的工作。 孙忠 关于申请前景等等,孙忠认为,模拟计算在未来AI领域的地位是强有力的补充。最有可能快速实施的场景是计算智能领域,例如训练机器人和人工智能模型。对于与现有计算架构的关系,孙忠强调,未来它们将以互补的方式共存。 “CPU作为一代‘指挥官’时代因其成熟度和经济性而难以消除。GPU专注于加速矩阵乘法计算。我们的模拟计算芯片旨在更高效地处理AI等领域最耗电的芯片反转运算,使其成为现有算力系统的有力补充。” 来源:北京大学、科技日报(记者:张格莲)
上一篇:表演扇子舞
下一篇:没有了
购买咨询电话
400-123-4567