Nature:超越ChatGPT,思维更像人类的人工智能诞生
2023/12/19 16:15:58 阅读:90 发布者:
【导读】
2023年10月25日,纽约大学的Brenden Lake和西班牙加泰罗尼亚研究所的Marco Baroni在国际顶尖学术期刊Nature上发表了新的研究论文。该研究创造了一个神经网络,该人工智能(AI)系统在将新学到的单词添加到现有的词汇表中并在新的上下文中使用它们的能力,超越了ChatGPT,表现与人类相当,而这一能力正是人类认知能力的关键——系统泛化。
这项研究研究结果挑战了一个已经存在35年的经典观点,还可能实现比当今最好的AI系统更自然的人机对话。尽管ChatGPT等基于大语言模型的AI系在许多情况下都擅长对话,但在其他情况下却表现出明显的差距和不一致性。该研究开发的神经网络具有类似人类的表现,表明了人类在训练网络系统化的能力方面取得了突破性进展。
在这项研究中,Brenden Lake和Marco Baroni用证据表明,神经网络能够掌握与人类相似的系统泛化能力。他们使用一种元学习(Meta-Learning) 方 法,开发了名为组合性元学习(Meta-Learning for Compositionality) 的新方法,其具有 优化组织能力 (按逻辑顺序组织概念的能力) ,该系统能在动态变化的不同任务中学习,而不是只在静态数据集上优化 (即之前的标准方法) 。
论文作者首先测试了25个人,看他们在不同情况下使用新学习的单词的能力。他们通过用一种由两类无意义伪造词组成的伪语言来测试他们,以确保参与者是第一次学习这些单词。像“dax”、“wif”和“lug”这样的基本单词代表“jump”、“skip”等基本的、具体的动作,更抽象的功能单词,例如“blicket”,“kiki”和“fep”,指定了使用和组合原始单词的规则,从而产生了像“跳三次”或“向后跳跃”这样的词组。
参与者接受了训练,将每个基本单词与特定颜色的圆圈联系起来,红色圆圈代表“dax”,蓝色圆圈代表“lug”。然后,向参与者展示了基本单词和功能单词的组合,以及当功能应用于基本单词时产生的圆圈模式。例如,短语“dax fep”用三个红色圆圈表示,而“lug fep”用三个蓝色圆圈表示,这表明fep代表了一个抽象规则——将一个基本单词重复三次。然后,测试他们应用这些抽象规则的能力,他们必须选择正确的颜色和圆圈数量,并将它们按适当的顺序排列。
正如预期的那样,人类参与者在这项学习和测试中表现出色,平均有80%选择了正确的颜色和圆圈。
然后,研究团队训练了一个神经网络来完成与上述人类参与者所做的类似任务,该方法允许人工智能在动态变化的不同任务中学习,而不是只在静态数据集上优化(这是训练神经网络的标准方法)。为了使神经网络更像人类,论文作者训练它来重现在人类测试结果中观察到的错误模式。当神经网络进行新的测试时,它的答案几乎与人类参与者的答案完全一致,在某些情况下甚至超过了人类的表现。
相比之下,ChatGPT的最新升级版GPT-4在进行同样的测试时遇到了困难,平均错误率为42%-86%。这一表现,相比该研究中的神经网络以及人类,都要差得多。
这项研究可能会使神经网络成为更有效的学习者,这将减少训练ChatGPT等系统所需的庞大数据量,并将可能产生的“幻觉”最小化。当人工智能感知到不存在的模式并产生不准确的输出时,就会发生“幻觉”。
_
论文信息:
标题:
Human-like systematic generalization through a meta-learning neural network
出版信息:Nature,05 October 2023
DOI:10.1038/s41586-023-06668-3
转自:“科研之友 ScholarMate”微信公众号
如有侵权,请联系本站删除!