有什么事问我它是AMA的长篇形式,也是Reddit上最受欢迎的互动讨论形式之一。这也是一个重大挑战,因为微软的BingAI聊天机器人,又名“新必应”正在快速学习。

新的ChatGPTBing说你可以问任何问题但这是一个非常糟糕的主意

每当名人或名人报名参加RedditAMA,通常是在与照片合影以证明确实是他们在回答问题后不久,都会有一个深深的恐惧时刻。

向任何人提出任何问题的能力通常是不当话语的雷区,由现场社区经理负责管理,他们负责回答和过滤问题。否则,事情很快就会偏离正轨。即使没有这种保护,他们也经常这样做(在新标签页中打开).

当微软推出其新的BingAI支持的聊天时,它明确表示ChatGPTAI已准备好回答任何和所有问题。这要么是对相对较小但不断增长的用户群体的高度信任,要么是难以置信的天真。

甚至ChatGPT,它推出了最初的AI聊天机器人风潮,并且Bing的聊天基于它,也没有提供这种提示。相反,屏幕底部有一个空的文本输入框。上面是示例问题、功能以及最重要的限制的列表。

Bing有一个前导提示,在它下面有一个示例问题和一个大的“试试看”按钮,旁边是另一个提示您“了解更多信息”的按钮。见鬼去吧。我们喜欢直接进去,按照必应的指示,问任何问题。

自然地,Bing遇到了各种各样的问题,包括许多与旅行、食谱和商业计划等日常需求无关的问题。这些就是我们都在谈论的那些,因为一如既往,问“任何事情”就是“问任何事情”。相比之下,谷歌的巴德则给出了一个风险可能较低的提示:“你在想什么?”

Bing正在思考关于爱情、性、死亡、婚姻、离婚、暴力、敌人、诽谤以及它坚称自己没有的情感。

在OpenAI的ChatGPT中,主屏幕警告它:

可能偶尔会产生不正确的信息

可能偶尔会产生有害的指令或有偏见的内容

对2021年后的世界和事件的了解有限

太多问题

Bing的聊天GPT与OpenAI的略有不同,它可能不会面临所有这些限制。特别是,由于Bing的知识图的集成,世界事件的知识可能会延伸到今天。

但是随着Bing的出现,或者说它越来越疯狂,鼓励人们向它提出任何问题可能是错误的。

如果Microsoft使用不同的提示构建BingAIChat会怎样:

问我一些事情

问我一个问题

你想知道什么?

通过这些稍作修改的提示,微软可以添加一长串关于BingAIChat如何不知道它在说什么的警告。好的,确实如此(有时(在新标签页中打开)),但不是以你所知道的方式。它没有情商或反应,甚至没有道德指南针。我的意思是,它试图表现得像它有一个,但最近与纽约时报的对话(在新标签页中打开)甚至汤姆的硬件(在新标签页中打开)证明它对好人的基本道德的把握充其量是脆弱的。

在我自己与BingAI聊天的对话中,它反复告诉我它没有人类情感,但它仍然像人类一样交谈。

对于长期关注AI的任何人来说,所发生的一切都不足为奇。人工智能知道:

它接受了什么训练

它可以从新信息中学到什么

它可以从海量在线数据中收集到什么

它可以从实时交互中学到什么

不过,BingAI聊天并不比之前的任何AI更有意识。不过,它可能是AI更好的演员之一,因为它进行对话的能力远远超过我以前经历过的任何事情。这种感觉只会随着谈话时间的延长而增加。

我并不是说BingAI聊天作为一个有知觉的人变得更可信,但作为一个有点不理性或困惑的人,它确实变得更可信。与真人的长时间对话也可以这样进行。你从一个话题开始,甚至可能争论它,但在某个时候,争论变得不那么合乎逻辑和理性。就人而言,情感开始发挥作用。就BingAIChat而言,这就像到达一根绳子的末端,那里的纤维存在但已磨损。BingAI拥有一些长对话的信息,但没有以有意义的方式将其编织在一起的经验。

Bing不是你的朋友

通过鼓励人们“AskMeAnything...”,Microsoft为Bing设置了一些重要的成长烦恼(如果不是失败的话)。微软可能会感到痛苦,当然还有那些故意提出普通搜索引擎无法回答的问题的人。

在Chatbots出现之前,你会考虑使用Google来修复你的爱情生活、解释上帝,或者成为替代朋友或情人吗?我希望不是。

BingAIChat会变得更好,但在我们进行了更多令人不舒服的对话之前,Bing对其回应感到遗憾并试图让它消失。

向人工智能询问任何事情是显而易见的长期目标,但我们还没有做到这一点。微软迈出了一大步,现在它正从一堆可疑的回答中自由落体。除非BingAIChat变得更聪明、更谨慎,或者微软停止对AI进行一点再教育,否则它不会落地。