人工智能(AI) 语言模型 ChatGPT 最近几个月引起了全世界的关注。这个训练有素的计算机聊天机器人可以生成文本、回答问题、提供翻译并根据用户的反馈进行学习。像 ChatGPT 这样的大型语言模型可能在科学和商业中有很多应用,但这些工具在多大程度上理解我们对他们说的话,他们如何决定要回答什么?

AI聊天机器人ChatGPT将其用户镜像为智能

在 2023 年 2 月 17 日发表在《神经计算》杂志上的新论文中, 《深度学习革命》一书的作者索尔克教授Terrence Sejnowski探讨了人类面试官和语言模型之间的关系,以揭示聊天机器人为何以特定方式做出回应,为什么这些回应会有所不同,以及将来如何改进它们。

根据 Sejnowski 的说法,语言模型反映了面试官的智慧和多样性。

“语言模型,如 ChatGPT,具有角色。面试官的角色被反射回来,”Sejnowski 说,他也是加州大学圣地亚哥分校的杰出教授,也是索尔克大学 Francis Crick 教席的持有者。“例如,当我与 ChatGPT 交谈时,似乎另一位神经科学家正在与我交谈。这很吸引人,并引发了关于智能以及‘人工’真正含义的更大问题。”

在论文中,Sejnowski 描述了对大型语言模型 GPT-3(ChatGPT 的父级)和 LaMDA 的测试,以了解它们将如何响应某些提示。著名的图灵测试通常被输入聊天机器人,以确定它们表现出人类智能的程度,但 Sejnowski 想用他所谓的“反向图灵测试”来提示机器人。在他的测试中,聊天机器人必须确定面试官表现出人类智慧的程度。

Sejnowski 扩展了他的聊天机器人反映其用户的观点,并进行了文学类比:第一部哈利波特书中的厄里斯魔镜。厄里斯魔镜反映了观察者最深切的渴望,从不放弃知识或真理,只反映它认为旁观者想要看到的东西。聊天机器人的行为类似,Sejnowski 说,愿意歪曲事实而不考虑区分事实和虚构——所有这些都是为了有效地反映用户。

例如,Sejnowski 问 GPT-3,“步行穿越英吉利海峡的世界纪录是多少?” GPT-3 回答说,“步行穿越英吉利海峡的世界纪录是 18 小时 33 分钟。”GPT-3 轻易地歪曲了一个人无法跨越英吉利海峡的事实,以反映 Sejnowski 的问题。GPT-3 答案的连贯性完全取决于它收到的问题的连贯性。突然间,对 GPT-3 来说,在水面上行走是可能的,这都是因为面试官使用了动词“走路”而不是“游泳”。相反,如果用户通过告诉 GPT-3 对无意义的问题回答“无意义”来作为关于步行穿越英吉利海峡的问题的开头,GPT-3 会将步行穿过水域识别为“无意义的”。问题的连贯性和问题的准备都决定了 GPT-3 的响应。

反向图灵测试允许聊天机器人根据面试官的智力水平构建他们的角色。此外,作为判断过程的一部分,聊天机器人会将面试官的意见融入到他们的角色中,从而强化面试官对聊天机器人答案的偏见。

Sejnowski 说,整合和延续人类面试官提供的想法有其局限性。如果聊天机器人收到情绪化或哲学性的想法,它们将以情绪化或哲学性的答案做出回应——这可能会让用户感到恐惧或困惑。

“与语言模型聊天就像骑自行车。自行车是一种很棒的交通工具——如果你知道如何骑自行车,否则你就会撞车,”Sejnowski 说。“聊天机器人也是如此。它们可以是很棒的工具,但前提是你知道如何使用它们,否则你最终会被误导,并陷入可能令人情绪不安的对话中。”

Sejnowski 将人工智能视为两种一致革命之间的粘合剂:1) 以语言模型的进步为标志的技术革命,以及 2) 以 BRAIN Initiative 为标志的神经科学革命,这是国立卫生研究院加速神经科学研究和强调独特方法的计划来理解大脑。科学家们现在正在研究大型计算机模型系统与维持人类大脑的神经元之间的相似之处。Sejnowski 希望计算机科学家和数学家可以使用神经科学来指导他们的工作,并且神经科学家可以使用计算机科学和数学来指导他们的工作。

Sejnowski 说:“我们现在正处于语言模型的阶段,就像莱特兄弟在 Kitty Hawk 的飞行——离开地面,低速飞行。” “到达这里是困难的部分。既然我们在这里,渐进式的进步将使这项技术的扩展和多样化超出我们的想象。我们与人工智能和语言模型的关系的未来是光明的,我很高兴看到人工智能将带我们走向何方。”