手机巨头纷纷部署大模型技术:新时代手机助手的崛起

   时间:2023-11-28 14:14 来源:中文科技资讯

【中文科技资讯】11月28日消息,近期,全球范围内涌现出一项引人瞩目的科技突破,手机领域的大模型技术成为各大厂商竞相布局的焦点。

在过去几个月里,华为率先宣布将引入大模型技术至手机助手,而小米、OV等手机厂商紧随其后。即便一直以来较为保守的苹果和三星也开始在这一领域积极行动,招兵买马。手机芯片制造商和应用开发者也在积极响应,高通和联发科相继发布了支持在手机端运行百亿参数大模型的新一代手机芯片,而由Sam Altman投资的Humane则推出了AI Pin,旨在构建未来的操作系统。

据中文科技资讯了解,大模型技术已经在大众视野中蔚然成风一年有余。对于早期尝试使用基于大模型开发的应用(如ChatGPT、妙鸭相机等)的用户而言,手机上的大模型似乎已经不再新奇。

手机厂商介入大模型领域的首要目标之一是强化手机助手的能力。在大模型应用之前,手机助手由于技术限制一直受到制约,其智能能力在特定任务上表现出色,但整体表现相对较弱。大模型的自然语言处理能力显著提高了手机助手的人机交互水平,进一步深化了手机助手对手机的操控能力。

OPPO高级副总裁刘作虎表示:“手机智能助手已经有好多年了,但是之前真的没人用。而大模型到来之后,未来手机一定是我们的超级助理,大模型可以带来影像、操作、文生图等多种体验的提升,这在未来是确定性的。”

在一次OpenAI的发布会上,通过Zapier链路云端数据、调用用户数据为用户提供更加个性化服务的演示引发了关注。在手机端,通过手机助手运行大模型调用这些数据,可能比云端更为直接。一位业内人士透露:“手机端有大量的短信记录、个人照片、备忘录、日程等,将这些数据变成向量数据库,配合大模型的自然语言能力,就能进行更好的交互。比如将用户的日程做成数据库,离线保存在用户本地,当用户提问相关问题时,进行一个向量检索算法,就可以利用大模型的能力做出更智能的回答。全部数据还都不会离开手机,保证隐私不会被泄露。”

手机公司在大力推动大模型上手机的同时,也在公司内部对手机系统的各项功能进行重新梳理,将其做成标准化的接口提供给大模型进行操纵,以提升手机的使用体验。业内人士表示:“手机厂商在手机助手中部署大语言模型,背后的野心或许还不止于此。如果手机厂商有一个人工智能助手,理解用户需求,控制和调用别的应用,那么除了用户的体验会变,手机厂商和第三方应用的关系会发生彻底的变化。”

在手机厂商的展示中,用户已经可以直接通过自然语言与手机助手进行交互,沟通自己的需求。未来,每个应用可能无需过多关注自身的界面设计,将服务核心标准化后,直接通过大模型驱动的手机助手进行用户交互。随着大模型控制GUI的进展,智能入口的主导方将成为应用的入口。

手机厂商选择在端侧部署大模型的原因也有一定的考量。手机厂商通常不提供云服务,无法获取廉价的云服务。而端侧大模型能够让手机厂商节省云服务的开支,更有利于商业计划的实施。其次,手机厂商在利用端侧AI方面具有较强的优势,通过自研大模型,能够在出厂前与手机和芯片公司进行多次调整,实现硬件和软件的最大程度适配。此外,端侧运行的大模型延时较低,不受网络状态不确定性的影响,能够更好地提供“助手”服务。

在技术和产业方面,将大模型能力移植到手机端也面临一些挑战。手机厂商已经宣布手机助手拥有大模型能力,但目前大多数采用的是端云结合的方式,完全将大模型能力移到端侧仍然存在难题。

大模型在端侧运行涉及到内存占用、计算复杂度和推理速度等问题。目前的主流做法是对模型进行量化,即将浮点数改为占用内存更低的整数进行存储。然而,量化会导致模型精度和能力下降。一位业内人士指出:“如果进行量化,一个六七十亿参数的模型,如果运行在端侧,大约需要占用2G-4G运行内存,而目前的旗舰机通常运行内存能达到16G左右。”

对于这一问题,一些公司提出了不同的解决方式。RWKV团队的大模型基于RNN、CNN架构进行底层改进,降低了模型推理成本。RWKV CTO刘潇表示:“RWKV在用户对话后,每次会储存一个对话状态,生成时通过这个状态进行推理。这个状态只会变化,而不会变大。因此即使对话状态变长,或多个agents同时调用,RWKV推理也不需要占用更多算力。性能不降,耗电也更友好。”

虽然端侧大模型已经成为一种趋势,但其对手机应用生态的影响尚不可知。手机厂商是否会将终端大模型能力开放给开发者,或者将其垄断为新的入口机会,仍然是业界关注的焦点。

 
 
更多>同类内容
全站最新
热门内容