原文来源:GenAI新世界
图片来源:由无界 AI生成
据海外媒体报道,OpenAI董事会的闹剧在上周引起了不少人的关注,许多人都在关心董事会开除Sam Altman的幕后原因,而有媒体曾报道,这与一项可能会威胁人类社会安全的技术突破有关。
这一技术突破使 OpenAI的高级研究人员建立了一个被称为Q*的模型,它可以解决以前从未见过的数学问题,这对现有的人工智能模型来说是一项艰巨的任务。这无疑是件大事,但纽约大学心理学和神经科学教授 Gary Marcus 在5月参议院人工智能监管听证会上与 Sam Altman一起发言时认为,人们不应该对此技术过于激动。
Gary Marcus表示,如今的大语言模型在很大程度上是一种预测机器,它们会根据训练数据猜测下句话怎么说更合适。事实上,Q*能够解决它以前从未见过的数学问题,这可能是大型语言模型开始克服推理极限的一个标志。
即便如此,这也只能说明大语言模型的推理能力达到了小学生的水准。想要达到对人类造成威胁的程度还早着呢。而这也是Marcus的观点,人们距离推出能力能够媲美人类的人工智能还有很长的路要走。
Marcus认为,大语言模型的预测性质与符号人工智能(Symbolic AI)形成了鲜明对比,后者是人工智能的一个古老分支,通过推理符号和符号之间的关系来解决问题。它类似于代数,"x "或"y "等符号代表数值,而加号或减号等符号则表示这些数值之间的关系。你可以将这种思维扩展到其他类型的逻辑问题中;例如,所有虎斑猫都是猫,而所有猫都是动物,因此虎斑猫一定是一种动物。
Marcus认为,未来的人工智能研究很可能会将生成式AI和符号式人工智能结合起来,就像人类同时使用直觉思维和分析思维一样。
实际上,在 Marcus 看来,阻碍人们实现未来愿景的主要障碍可能是另一个古老的问题:人际冲突。
Marcus长期以来一直是深度学习的批评者,而深度学习正是GPT-4这样的大语言模型所采用的机器学习技术。这让他与人工智能教父Geoffrey Hinton和Yann LeCun陷入了水深火热的学术斗争之中之中,三人曾在社交媒体上展开过激烈的“学术讨论”。而随着时间的推移,这三位科学家之间的紧张关系导致了AI学术领域的分裂,而这种分裂似乎在短期内无法弥补。
因此,在支持深度学习的人工智能研究人员和支持符号人工智能的研究人员跨过这些鸿沟携手合作之前,人们不必担心AGI会在短期内终结人类。
编辑:web3528btc 来源:加密钱包代币