找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

只需一步,快速开始

查看: 94|回复: 0

新方法让人工智能可以无限学习

[复制链接]

2883

主题

0

回帖

5766

积分

管理员

积分
5766
发表于 2024-8-23 10:33:17 | 显示全部楼层 |阅读模式 IP归属地:亚太地区
阿尔伯塔大学的人工智能研究人员和计算机科学家团队发现,目前用于深度学习系统的人工网络在对新数据进行长时间训练时会丧失学习能力。该研究发表在《自然》杂志上,研究小组找到了一种方法来克服监督和强化学习人工智能系统中的可塑性问题,使它们能够继续学习。
过去几年,人工智能系统已成为主流。其中包括大型语言模型 (LLM),它能使聊天机器人做出看似智能的响应。但它们都缺乏在使用过程中继续学习的能力,这一缺点阻碍了它们在使用过程中变得更加准确。它们也无法通过对新数据集进行训练而变得更加智能。
研究人员测试了传统神经网络在原始数据集上进行训练后继续学习的能力,发现了所谓的灾难性遗忘现象,即系统在接受新材料训练后,失去了执行原来能够完成的任务的能力。
他们指出,考虑到 LLM 被设计为顺序学习系统,并通过对固定数据集进行训练来学习,这一结果是合乎逻辑的。在测试过程中,研究团队发现,如果对多个任务进行顺序训练,系统也会完全失去学习能力——他们将此描述为可塑性丧失。但他们也找到了一种解决问题的方法——通过重置先前与网络上的节点相关联的权重。
在人工神经网络中,节点使用权重来衡量其强度——权重可以通过它们之间发送的信号增加或减少强度,而信号又受到数学计算结果的影响。随着权重的增加,它所传达的信息的重要性也会增加。
研究人员建议,在训练课程之间使用与初始化系统相同的方法重新初始化权重,这应该可以保持系统的可塑性并使其能够在额外的训练数据集上继续学习。
更多信息: Shibhansh Dohare,深度持续学习中的可塑性丧失,《自然》(2024 年)。DOI :10.1038/s41586-024-07711-7。www.nature.com/articles/ s41586-024-07711-7
期刊信息: Nature

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|NewCET |网站地图

GMT+8, 2024-11-22 21:01 , Processed in 0.026055 second(s), 20 queries .

Powered by NewCET 1.0

Copyright © 2012-2024, NewCET.

快速回复 返回顶部 返回列表