超低功耗神经形态硬件有望实现节能的人工智能计算
包括首尔国立大学工程学院研究人员在内的团队开发出了能够以超低功耗执行人工智能 (AI) 计算的神经形态硬件。这项研究发表在《自然纳米技术》杂志上,解决了现有智能半导体材料和设备的基本问题,同时展示了阵列级技术的潜力。目前,物联网 (IoT)、用户数据分析、生成式人工智能、大型语言模型 (LLM) 和自动驾驶等各个领域的大数据处理并行计算消耗大量电力。然而,用于并行计算的传统硅基 CMOS 半导体计算面临能耗高、内存和处理器速度较慢以及高密度工艺的物理限制等问题。尽管人工智能对日常生活做出了积极贡献,但这也导致了能源和碳排放问题。
为了应对这些挑战,必须突破基于数字的冯·诺依曼架构计算的局限性。因此,开发模仿人脑工作原理的下一代智能半导体神经形态硬件已成为一项关键任务。
人脑由约1000亿个神经元和100万亿个突触连接组成,突触通过突触权重存储相互关联的信息并进行计算和推理,是智能的基本单位。
基于智能半导体器件的神经形态硬件可以模拟大脑的突触操作,它依赖于能够存储多个电阻状态的忆阻器器件,并利用这些权重进行计算。然而,用于忆阻器的广泛研究的非晶态金属氧化物通过导电丝运行,导致电荷仅在特定区域积累。这会导致不对称和非线性的突触权重调整,从而导致并行计算不准确和能源效率低下。
为了解决这一问题,Seung Ju Kim 博士和 Ho Won Jang 教授专注于卤化物钙钛矿材料的高离子迁移率,这种材料作为下一代太阳能电池和 LED 的材料一直备受关注。他们专注于开发基于有机-无机混合材料的神经形态设备。研究团队发现,在新设计的二维钙钛矿材料中,离子可以均匀分布在半导体表面。
这项突破使得超线性和对称突触重量控制得以成功实现,而这在传统智能半导体中是无法实现的。该机制的理论原理已由浦项科技大学的一个团队通过第一性原理计算得到证实。
通过利用所开发设备的性能,研究人员评估了硬件中执行的 AI 计算的准确性。他们证实,该设备不仅可以使用 MNIST 和 CIFAR 等小型数据集,还可以使用 ImageNET 等大型数据集,在理论限度内以小于 0.08% 的极小误差范围进行推理。
此外,通过与南加州大学的合作研究,证明了AI计算可以以超低功耗加速,不仅在设备级别,而且在阵列级别。
这项研究显著提高了智能半导体材料和器件的能源效率,预计将大大有助于降低人工智能计算的总体能耗。此外,通过实现超线性和对称突触权重控制,它可以显著提高人工智能计算的准确性,并有可能应用于自动驾驶和医疗诊断等各个领域。此外,这项技术有望推动下一代人工智能硬件技术的进步以及半导体行业的创新。
这项研究开发的技术是三年前Kim 博士和 Jang 教授在《Materials Today》杂志上发表的一篇重点论文中提出的技术的升级版。专利申请目前正在韩国和美国接受审查。
领导这项研究的张教授评论说:“这项研究为解决下一代智能半导体器件的基本问题提供了重要的基础数据。其意义在于证明,对于开发高性能神经形态硬件而言,材料表面的均匀离子运动比在半导体材料中创建局部细丝更为重要。”
页:
[1]