非负矩阵分解是从高维数据中提取潜在结构的核心技术,广泛应用于推荐系统、生物信息学和图像处理等领域。针对这项技术,北京大学人工智能学院孙忠研究员团队设计了一款模拟计算机芯片,为大规模数据处理提供了一种全新高效的解决方案。与目前先进的数字芯片相比,计算速度将快约12倍,电源效率将快228倍以上。相关成果近期发表在《Nature Communications》上。孙忠1月22日告诉科技日报记者,非负矩阵分解是一种强大的“数据降维”技术。可以提取大量复杂的用户行为、图像像素等信息的模式和人脸潜在特征,具有广泛的应用前景图像分析、信息聚类和个性化推荐等领域。然而,面对当今百万规模的数据集,传统数字硬件受到计算复杂度和内存瓶颈的限制,难以满足实时处理需求。孙忠的团队正在研究模拟计算。模拟计算直接利用物理定律实现低延迟、低功耗的并行计算。这在算力瓶颈的背景下具有独特的优势。在此,团队开发了一种基于电阻开关存储器(RRAM)的非负矩阵分解模拟计算求解器,并设计了一种紧凑的可重构广义反向电路。电导补偿原理允许用最小的计算单元实现相同的计算功能,非负矩阵分解过程的核心计算步骤是优化实现了一步解决方案,极大优化了芯片面积和功耗性能。为了验证芯片的性能,研究团队搭建了测试平台,并在典型场景下进行了验证。对于图像压缩任务,图像精度损失与在最高精度数字计算机上执行的结果大致相同,并且节省了一半的存储容量。对于推荐的系统应用,预测的错误率与针对数字芯片计算的错误率非常相似。对于 MovieLens 100k 数据集上的推荐系统训练任务,与传统可编程数字硬件相比,模拟计算机实现了 212 倍的加速和 46,000 倍的能效改进。对于Netflix规模数据集上的推荐系统训练任务,其计算速度比先进数字芯片快约12倍,能效指数优于228倍以上。 “这项研究开启了n孙忠表示,这项研究可以为实时推荐系统、高清图像处理、遗传数据分析等场景带来创新,有助于开发人工智能应用,以提高效率、降低能耗。(记者张格连)
(编辑:何欣)

你也可能喜欢

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注