返回顶部

让AI“变老”:模拟神经退化的新思路

[复制链接]
simonzhdLv.9 显示全部楼层 发表于 2024-4-25 15:16:26 |阅读模式 打印 上一主题 下一主题
近年来,研究人员开发出能模拟人类能力的人工智能 (AI) 系统,例如识别图像中的物体、回答问题等等。然而,与会随着时间退化的人脑不同,这些系统通常会保持相同的性能,甚至随着时间的推移提高技能。
加州大学欧文分校的研究人员最近尝试在人工智能体中模拟衰老和生物神经退化(即神经元逐渐减少以及相关的心理能力下降)。他们预印在 arXiv 上的论文提出了一种利用“人为神经退化”来执行特定任务的创新型 AI 系统的开发思路。
“这项研究的最初灵感来自于与 Baldi 博士和 Pishgar 博士共进晚餐时的一次讨论,” 论文的共同作者俞岱(Yu-Dai Tsai)告诉 Tech Xplore,“当时我们讨论了广泛但不相关的各种主题,包括神经退化、学习和人工智能安全。”
“此外,我父亲最近经历了一次严重的脑损伤,并出现了认知能力下降的情况,这促使我从新的角度思考这个问题,以及它在计算机科学和深度学习领域的直接应用。”
Tsai及其同事最近的这项研究并非旨在人工复制人类脑部疾病。相反,该团队希望在人工智能体中产生认知衰退,以更好地理解复杂系统,从而可能增强其可解释性和安全性。
“我们使用大型语言模型 (LLM) 执行的智商测试,更具体地说是 LLaMA 2,引入了 ‘神经元侵蚀’的概念,” Tsai 解释道。 “这种蓄意的侵蚀涉及在训练期间或之后切除突触或神经元,或添加高斯噪声,从而导致 LLM 的性能出现可控的下降。”
研究人员发现,当他们故意切除 LLaMA 2 模型的一部分人工突触或神经元时,其在智商测试中的表现会按照特定模式下降。他们的观察可能会揭示复杂人工智能系统的工作原理,以及其底层结构受损时首先和最后下降的能力。
“除了建立一般框架之外,这项研究也许最有趣的结果是,大型语言模型会首先丧失抽象思维能力,然后是数学能力下降,最终丧失语言能力,无法连贯地回应提示,” Tsai 说, “我们正在进行进一步的测试以更好地理解这种观察到的模式。”
研究人员发现,当人工智能系统中的人工突触和神经元被移除时,这些系统首先会丧失抽象思维能力,然后丧失数学能力,最后丧失语言技能(即无法连贯地回应提示)。有趣的是,这种“神经侵蚀”模式与人类神经退化模式一致。
未来,Tsai及其同事的这项最新工作可能会启发其他研究团队探索人工智能体中专门的神经退化,超越以往侧重于复制人类神经退化的研究。这些研究将共同为开发利用观察到的 AI 神经侵蚀模式来解决现实世界问题的新技术铺平道路。
“这只是一系列研究中的第一个,” Tsai 补充说, “我们计划将我们的研究扩展到人工智能系统的特定测试,并将模拟扩展到其他神经疾病和神经多样性。此外,我们将应用我们的方法来提高人工智能的安全性 可解释性。我们也渴望与神经科学家进行更多的合作和讨论; 但是,我们的主要重点仍然是在探索人工智能研究的新领域,而不是复制人类脑部疾病。”
本文译自 techxplore

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则