您的位置:浮浪网 > 社会 > >正文

​从联想电话会看,AI PC时代关注哪些问题?

摘要从联想电话会看,AI PC时代关注哪些问题? 本文作者:张逸凡 编辑:申思琦 来源:硬 AI 在 AI 服务器之后,市场的焦点转向了 AI 手机和 AI PC。 在高通基于新 ARM 架构核心骁龙 8 Gen4 上市...

从联想电话会看,AI PC时代关注哪些问题?

本文作者:张逸凡

编辑:申思琦

来源:硬 AI

在 AI 服务器之后,市场的焦点转向了 AI 手机和 AI PC。

在高通基于新 ARM 架构核心骁龙 8 Gen4 上市即将到来之时,市场对 AI PC 的关注越来越高,在本周的财报电话会上,联想透露了一些自身和行业的新进展。

1、" 五大要素 " 定义 AI PC

市场上对 AI PC 的定义各不相同,目前微软给出的定义市场认可度高,具体包括:

1)内存方面,基础 AI 模型需要 16GB 内存,标准 AI 模型则需要 32GB,高级 AI 模型则要求 64GB 或更多;

2)算力方面,至少要有 40TOPS 的算力;

联想则在此基础上完善了自己的 AI PC 定义,包括五个关键要素:

1)内置了压缩大模型;

2)配备自然语言交互能力的 AI 助手;

3)硬件方面,需要同时拥有 CPU、GPU 和 NPU;

4)能帮助用户建立个人知识库;

5)重视用户个人隐私的保护;

结合微软提出的 AI PC 内存和算力标准,AI PC 的形态愈加清晰:AI PC 不仅智能且强大,还能为用户提供更个性化、更安全的体验。

2、AI PC 渗透率的变化预测

按照联想自己的定义,目前市场上符合要求的产品较少,联想在电话会中预计今年的比例会在十个百分点以下。

联想预测,2024 年公司出货的 PC 中,大约 20% 会配备 NPU(神经处理单元)。到了 2026 年,根据联想的严格定义,AI PC 的渗透率可能达到 50% 到 60%。目前,联想每年的出货量在 5500-6000 万台之间,60% 的出货量意味着大约有 3600 万台是 AI PC。

美国市场营销专家 Geoffrey Moore 有一个 " 市场渗透率加速定律 ",他认为当新产品或服务的市场渗透率达到 15% 时,其增长速度会加快,并最终达到 50% 左右。之后,增长速度会逐渐放缓,直至稳定。

所以,AI PC 的出货量可能会在 2024 年逐步增加,2025 到 2026 年进入快速增长阶段,这将为整个产业链带来新的机遇。

3、x86 和 ARM 的市场份额

ARM 替代 x86 架构是市场近期关注的一个核心问题,这将对 AI 时代换机潮比例起到重要作用。

会议上,联想表示未来将会出现 x86 和 ARM 两种架构并存的局面。

x86 的指令较长,通常在一条长指令中包含多个任务。而 ARM 则相反,擅长将一条长指令拆分成多个短指令。换句话说,ARM 擅长将复杂任务分解成简单任务。这样做的好处是可以降低 CPU 的功耗,同时还能保持高性能。

英特尔和 AMD 在 x86 架构时代,一直占据市场的大部分份额。然而,随着 AI 计算时代到来对功耗要求的提高,市场开始逐渐倾向于使用 ARM 架构。英伟达、AMD、高通和联发科都已经推出了基于 ARM 架构的 CPU 处理器。

不过,联想也提到,对于 AI 处理器来说,除了功耗之外,还有很多其他重要的衡量标准。未来,x86 和 ARM 之间必定会展开激烈竞争。这样的竞争对 AI 服务器厂商来说是个好消息,因为无论是从成本还是处理器选择的角度来看,这都是一个优势。

4、供应链变化

根据高盛发布的数据显示,GPU 的供货时间正在不断缩短。英伟达在本周的财报会议上也表示,H100 显卡的供应紧张状况已经有所缓解。

联想在此次会议上提供了更详细的数据:去年,GPU 的等待周期大约为 52 周。今年年初,这一周期已从 52 周缩短到 26 周,而到目前为止,等待周期又进一步减少。

供货周期的缩短,对于联想、戴尔、惠普和超微电脑等服务器供应商来说是个好消息,因为这意味着服务器的出货将不再受制于供应短缺。然而,联想也指出,具体何时能够完全解决供应链问题,目前仍不确定。

5、Copilot 和小天

由于众所周知的原因,国内的 Windows 电脑无法直接使用微软的 Copilot。为了在 PC 上解决 AI 助手的问题,联想推出了自己的端侧大模型助手 " 联想小天 "。

与 Copilot 需要依赖云端运行不同," 联想小天 " 可以完全在本地运行。

根据科技博主 " 卡兹克 " 的评测," 联想小天 " 具备本地运行和云端运行两种模式,用户可以根据需要自由切换。

这种设计不仅保证了用户的数据隐私,还能在需要时利用云端处理复杂任务。

从功耗来看," 卡兹克 " 的数据表明,本地模型虽然运行在 CPU 上,但耗电量很低。这个大模型常驻后台,需要大约 4G 的内存。此外,在进行推理时,对 CPU 的影响也基本可以忽略不计。

功能方面,本地模型能够完成邮件拟稿、语音转录、会议总结等任务,性能相当于 GPT-3.5 水平的模型,已经足够满足日常办公需求。

总体来看,联想电话会对 AI PC 透露出乐观的态度,上游芯片厂商在 ARM 时代的竞争会进一步加剧,联想表示目前看不清谁能快速跑出,但认为上游的激烈竞争对下游 PC 厂商是有利的,更快的技术进步有利于换机潮的到来。

标签:

推荐阅读