端侧大模型成焦点,智能手机进入AI“芯战”时代_全球资讯热分享网(专注热点收集平台)

端侧大模型成焦点,智能手机进入AI“芯战”时代


端侧大模型成焦点,智能手机进入AI“芯战”时代

  2023-12-02 02:54:49     简体|繁體
http://refenxiang.com/1010287.html

原文来源:钛媒体

作者:邓剑云

图片来源:由无界 AI生成

当“生成式人工智能”成为行业热词,在关注各类新兴应用的同时,作为提供应用底层支撑的“算力”也开始成为关注的焦点之一。

对于传统的高算力终端而言,通过增加额外的GPU硬件即可填补大模型训练与AI生成所需的“算力鸿沟”,但像移动智能终端,受限于集成度、功耗限制等方面,想要摆脱联网需求,实现端侧部署生成式人工智能则具备更高的难度。


旗舰芯片AI领域率先发力,中端布局路径产生差异


近两个月,联发科与高通先后发布了新一代旗舰级SoC芯片,两者不约而同地提到了端侧部署AI能力的提升。

以联发科为例,此前发布的天玑9300芯片内部集成联发科第七代AI处理器APU 790,为生成式AI而设计,整数运算和浮点运算的性能是前一代的2倍,功耗降低了45%。APU 790内置了硬件级的生成式AI引擎,可实现更加高速且安全的边缘AI计算,深度适配Transformer模型进行子加速。

根据官方公布的数据,其处理速度是上一代的8倍,1秒内可生成图片,同时,基于亿级参数大语言模型特性,联发科开发了混合精度 INT4 量化技术,结合内存硬件压缩技术NeuroPilot Compression,可以更高效地利用内存带宽,减少AI大模型对终端内存的占用,支持终端运行最高可达330亿参数的AI大语言模型。

新一代智能手机芯片的发布,让生成式人工智能获得了硬件端的支持,不过搭载旗舰级SoC芯片的产品,市场定位基本也都局限在高端市场。根据IDC的数据,2023年第三季度,国内智能手机高端市场(3500元以上)的出货占比为33%。

换句话说,即便所有高端手机都开始支持端侧生成式AI,在用户层面也仅仅做到了每10个人中3个人有机会接触到该功能。而定位更低的中端机市场,则暂时无法享受到大模型带来的体验升级,要知道,2500~3499元区间的手机销量市场占比也达到了19%,并且处于不断增长的趋势当中。

如何扩大应用落地范围,让生成式人工智能不止是高端产品的“绑定产物”,是摆在各个终端厂商、上游芯片供应商面前的首要问题。高通面向下一代中高端产品推出的第三代骁龙7,并没有提及AI功能上的进步,主要提升依然是面向传统使用场景的CPU、GPU性能以及能耗。

反观联发科,从天玑8000系列发布开始,在旗舰机之外的中、高端机型已经成为了其加速移动芯片市场渗透率的“基本盘”,芯片的迭代速度更快,同时也加深了与终端手机品牌的合作。最新发布的天玑8300,也在同级产品中率先支持生成式AI,至高支持100亿参数AI大语言模型。

该芯片集成联发科 AI 处理器 APU 780,搭载生成式AI引擎,整数运算和浮点运算的性能是上一代的 2 倍,支持Transformer算子加速和混合精度INT4量化技术,AI综合性能是上一代的3.3倍,可流畅运行终端侧生成式AI的创新应用。

据联发科无线通信事业部副总经理李彦辑透露,小米成为首个借助其芯片能力实现端侧生成式AI应用的手机厂商。

而小米集团总裁、Redmi品牌总经理卢伟冰则表示:“Redmi手机将会全球首发搭载天玑8300-Ultra芯片,该机在性能调度、系统应用和硬件底层能力开发方面,均会应用到新一代人功智能技术。”刚刚发布的Redmi K70E就是卢伟冰所说的首款支持端侧生成式人工智能的手机产品。


从云侧到端侧,移动大模型时代可以期待什么?


虽然产品有了、应用也有了,但是提到大模型这项技术,似乎距离普通用户还是很远,究其原因就在于具体场景落地的匮乏,对于大众消费者而言,根本感知不到大模型带来的体验差异。

值得庆幸的是,手机端的大模型应用正在加速普及,目前,包括华为、小米、vivo等手机厂商都已经将大模型手机端的应用提上了日程,其中诸如语音助手与大模型的结合很多都已经到了内测甚至公测阶段。

一位业内人士告诉钛媒体App:“大模型的加入可以让智能语音助手跳出既有的算法‘机械问答’模式,对用户指令的理解能力以及解决问题的能力都将增强,而这也只是第一步而已,下一步在端侧生成式人智能落地后,像目前还属于小众技能的‘图生文’‘文生图’‘图生图’等进阶应用,都有望在手机端实现,从而让语音助手开始显现出创造力。”

从长远来看,大模型与端侧生成式人工智能,的确有可能为智能手机等终端硬件带来更多或有趣、或实用的玩法。但钛媒体App在体验了现阶段手机端大模型应用后,只能说是“未来可期”而非“即刻革新”。

毫不客气的说,当前手机内的大模型应用更多只是个噱头而已,能够感知到的“智能升级”非常有限,虽然语音助手能听懂、回答的问题更多了,甚至可以具备一些简答的前后联系的逻辑思考,但与赛道内领先的Chat GPT仍有很大差距。

如果从AI绘图应用来说,移动端面临的挑战也不少,像算力层面,目前业界主流的Stable Diffusion经过实测,最起码需要RTX 3070以上级别的显卡才能获得比较流畅的应用体验,同时其上手门槛也并不低,因为AI绘画往往需要对调用学习模型进行选择,同时在绘画中不断提出新要求并对画面进行调整,才能最终获得一张质量还不错的图片。

Stable Diffusion这样从AI绘图应用兴起就开始不断改良的工具尚且如此,移动端的部署就会是更大的问题,如果只是通过文字描述可以生成图片而已,那对于普通消费者来说,最多是上手尝鲜一下,新鲜劲儿一过,立马就变成了冷门技能,大模型应用就会走上当年智能语音助手一样的老路,爆火之后市场便慢慢冷却下来。

因此,端侧大模型应用,也需要找到高频场景进行适配,李彦辑认为,“性能调度”将是一个很好的落脚点。“大模型不光可以学习传统的文字、图片资料,它也可以去学习用户习惯,进而具备应用场景的自适应切换能力,”他提到。

具体来说,就是摆脱传统的固定算法调度逻辑,让AI更多地参与其中,比如用户日常使用手机的时候,其处理社交信息、游戏、刷短视频时,对手机性能的需求都是不同的,过去手机系统往往是依靠应用来做反向适配,打游戏调用高频率大核心提高性能、文字聊天和待机使用小核心保持续航,这种调度能力是非常固化的。

智能手机具备端侧AI能力后,就能将性能调度这件事变得更加主动,可以根据当前的场景需求进行实时优化,而非照本宣科的进行软件和策略层面的适配。

钛媒体App分析认为,与聊天、AI绘图等看似创新的应用体验相比,能够对既有的高频场景进行精准赋能,才是端侧大模型短期内能够创造体验价值的关键所在,无论是影像、性能表现上的优化亦或是对屏幕、扬声器等硬件的实时智能调节,都是更能带给用户体验感知升级的维度。

假设有一天,通过端侧大模型结合用户习惯、应用感知得到的数据进行学习,利用对软硬件层面的综合调度,让智能手机的续航可以再提升20%甚至50%,谁还会说它只是个“噱头”呢?



编辑:web3528btc 来源:加密钱包代币

分享到:

  • 上一篇
    下一篇

  • 分享知识|收获智慧

    全球资讯热分享网(专注热点收集平台)
    手机查看(二维码扫一扫)

    全球资讯热分享网,最有影响力热点信息分类网站,主要集合图文、知识、日常、娱乐、财经、文化、生活、致富、女性、地区、科技等多类信息分享交流,免费提供最有价值的头条信息平台。
    « 2024年 » « 11月 »
    123
    45678910
    11121314151617
    18192021222324
    252627282930