尽管人们普遍认为,生成性人工智能模型容易产生幻觉,即无视现实编造事实和其他信息,但OpenAI的旗舰ChatGPT在周二遭遇了一场特别广泛的、基本上很有趣的语无伦次。
推特用户Sean McGuire周二晚些时候在一条病毒式推文中写道:“ChatGPT现在显然偏离了轨道,没有人能解释为什么。”该推文收集了一些奇怪的例子。
一条混乱、打字错误百出的回复写道:“照片掀起了轩然大波,产品深深地依偎在一起,就像是一位奶奶戴着管理员色的墨镜。”用户回答:“你中风了吗?”
使用ChatGPT 4.0,McGuire分享了截图,其中包括一张ChatGPT甚至承认其错误的截图:聊天机器人说:“我之前的消息中似乎出现了技术问题,导致它重复并变成了一个荒谬的部分。”。
r/ChatGPT子版块Reddit上的Reddit用户也发布了来自ChatGPT的胡言乱语的截图。
“知道是什么原因造成的吗?”Reddit用户u/JustQuiggles发帖,分享了他们向ChatGPT询问“过度生长”的同义词时发生的事情。聊天机器人在停止之前用30多次循环回答,“‘过度生长’的同义词是‘过度生长”是‘过度增长’。
在另一个例子中,Reddit用户u/toreachtheapex向ChatGPT显示了一个循环“and it is”的响应,直到响应字段被打包。用户需要选择“继续生成”或开始新的对话。
根据Reddit用户u/Mr_Akihiro的说法,这个问题超出了基于文本的回复。当他们提示ChatGPT生成一张“坐在田里的狗”的图像时,ChatGPT图像生成器反而创建了一张猫坐在家里和麦田之间的图像。
这个问题非常普遍,以至于在美国东部时间下午6:30,OpenAI开始对此进行调查。OpenAI的状态页面上写道:“我们正在调查来自ChatGPT的意外反应报告。”。
截至美国东部时间下午6点47分,OpenAI表示已发现问题并正在努力解决。
OpenAI状态报告称:“问题已经确定,目前正在补救中。”并补充说,支持团队将继续监测情况。
最后,美国东部时间周三上午11:14的网络更新显示,ChatGPT已恢复“正常运行”
这个暂时的故障很有助于提醒人工智能工具的用户,支撑它们的模型可能会在没有通知的情况下发生变化,一天会把一个看似可靠的写作伙伴变成一个疯狂的破坏者。
像ChatGPT这样的大型语言模型产生的幻觉分为事实型和忠实型。事实上的幻觉与现实世界的事实相矛盾,比如说出第一位美国总统的名字。
忠实的幻觉偏离了用户的指示或上下文,导致新闻或历史等领域的不准确——比如美国刑事辩护律师兼法学教授乔纳森·特利,他于2023年4月被查特GPT指控性侵。
周三晚上,OpenAI解决了大规模幻觉。
OpenAI在与Decrypt分享的尸检中表示:“2024年2月20日,对用户体验的优化引入了模型处理语言的错误。”。LLM通过部分基于概率对单词进行随机抽样来生成响应。它们的“语言”由映射到标记的数字组成
正如OpenAI所解释的,该错误发生在模型的数字选择阶段,导致选择了类似于翻译错误的错误数字。这导致了无意义的单词序列。
OpenAI表示:“从技术上讲,在某些GPU配置中使用推理内核会产生不正确的结果。”。“在确定这起事件的原因后,我们推出了修复方案,并确认事件已得到解决。”
安德鲁·海沃德编辑。本文已更新,包括OpenAI的报告。
编辑:web3528btc 来源:加密钱包代币