首页 > 笔记本 > 笔记本杂谈 > 笔记本_趣闻杂谈> 正文

【科技实话】AI本地应用,双向奔赴但道阻且长

Dwight 编辑: 韩思同 发布于:2024-03-10 15:01 PConline原创

随着OpenAI旗下ChatGPT的爆火,AI相关的应用在这两年来呈井喷式发展,AI人工智能好似前一夜还是《终结者》系列电影中虚构的“天网系统”,而今天它就闯入到了我们的现实世界之中。

不同于概念大于应用的“元宇宙”,AI的发展与应用是我们有目共睹的,AI对话更加智能与准确,国内外公司的LLM频繁推陈出新,Nvidia作为AI计算领域的硬件领导者股价飙升,频繁刷新历史新高,再加上Stable Diffusion、Sora等等,AI目前被普遍认为是将能够改变人们此前生活生产的技术与应用,而并非只停留在概念层面。

去年年底,英特尔与AMD相继发布了加入AI计算单元的酷睿Ultra处理器与8000系锐龙处理器,并且抛出了AI PC的概念,为仅搭载核显的笔记本电脑带来了更高效的AI算力,两家也都非常强调与宣传了本地AI计算、AI应用本地化将会是未来主要发展方向之一。

目前,英特尔的酷睿Ultra处理器、AMD 8000系锐龙移动端处理器均已在终端产品上实际搭载与发售,那么AI PC只是噱头吗?目前有本地AI应用吗?本地AI应用的发展受阻在什么地方?本篇文章就来讨论下这些方面的问题。

·AI PC是噱头吗?

显然,自英特尔开始着重宣传其搭载了酷睿Ultra处理器的笔记本为“AI PC”后,很多声音都认为AI PC不过是一个噱头罢了。

但在我看来这个事情并非那么绝对,相比于之前无AI计算单元的处理器,有了NPU的加入后,处理器的AI总算力与AI计算的能效比确实有所提升。 

这里可以给大家分享一组本地AI应用的实际测试数据,用一台搭载了酷睿Ultra 7 155H处理器机型,在剪映中,将一段1分钟左右的4K视频导入,分别在CPU与NPU上运行AI视频抠像功能,结果二者所用的时间虽然基本相同(运行在CPU上时GPU也会有少量占用参与工作,导致了两者消耗时间相同,如果真的仅有CPU进行工作那么理论上NPU所消耗的时间肯定更短一点),都在35秒左右,但在平均功耗上,运行在NPU上时CPU封装功耗仅为23W左右,而运行在CPU上时CPU封装功耗平均下来高达45W左右,有着近两倍的差距。

导入视频属性

所以,有了专门用于计算的AI处理单元后,AI计算的能效比提升是真实存在的,如果以这个角度来看,AI PC并非噱头;而如果以它是否能够像搭载了独立Nvidia显卡那样快速的运行诸如Stable Diffusion这种对性能要求很高的应用来看,那就另说了,但换句话说,也不可能期望一颗TDP 28W的移动端处理器能够有那样的性能表现。

·目前有本地AI应用吗?

答案是肯定的,但还不够多,或者说在我们的印象中还不是那么的“AI”。

本地的AI应用其实在之前就很常见了,比如在视频会议时的背景虚化、人眼矫正等功能就是AI功能,这些功能早在ChatGPT爆火前就已经被大面积使用了。

除此之外,像之前介绍到的AI视频抠像,还有比如AI处理图片噪点、AI动作捕捉等也有本地的应用可以实装并使用,但这些应用与我们传统认知的AI应用诸如文生文、文生图尚有差距,相比之下普世的程度也没有那么高。

视频背景更换/虚化

英特尔在AI PC上大力宣传的本地大语言模型目前是可用的,英特尔酷睿Ultra平台的性能可以顺畅运行6B/7B/13B等规模的LLM,但是现在普通个人用户想要在本地部署本地大语言模型的门槛较高,普通电脑用户不具备技术能力在本地进行部署,所以对于大部分人而言,本地的AI对话是处于“可用但无应用可用”的状态。

在酷睿Ultra 7 155H上运行百川7B大模型

Stable Diffusion在社区大神的支援下,目前有“一键部署”的WebUI可用,但就像我之前说的,仅搭载CPU的核显轻薄本也只是能够做到“运行”Stable Diffusion,不能指望其出图的速度如何,有大量AI生图需求的用户还是老老实实买大显存的N卡甚至N卡专业卡会好很多。

所以目前本地AI应用的现状是有但不多,更能普惠用户的AI对话没有一键部署的软件来承载大语言模型,AI生图又对性能的要求较高,核显难以应付。不过相信在不久的将来,越来越多本地AI应用将持续落地,毕竟AI在目前来看是大势所趋,谁不想在这其中分一杯羹呢?

·本地AI发展受阻在哪?

总体来讲,个人认为本地AI应用发展受阻主要在于本地算力、软件适配、商业运作缺乏盈利模式两个方面。

AI想要从云端转移到本地,算力是绕不开的话题,不管是什么类型的AI应用,都需要的是快速响应、低延迟、0等待,那么这就需要更强的本地AI算力,与此同时,如果是“轻薄本”这种对于续航有一定要求的产品形态,在追求更强AI算力的同时,还需要平衡好功耗,降低对内存带宽、显存的高依赖,在不影响续航能力的情况下“无感”的进行AI应用才是之后我认为处理器的主要发展方向之一。目前,Intel与AMD的最新移动端处理器酷睿Ultra与8000系锐龙已经加入了专门的AI计算单元,这个独立的AI计算单元就是用来提升AI算力能效比的,这个方向是对的,但是硬件是有了,想达到预期还需要软件的适配和优化。

所以AI应用本地化,不仅是Intel、AMD这种上游供应商在硬件设计方面需要努力,还需要软件供应商甚至终端产品制造商进行全面的合作和适配。今年是AI PC的元年,Intel和AMD已经迈出了从0到1的最重要一步,后续肯定也会围绕AI在硬件上面进行算力上的加强,随着一代代的升级,我们尚需再给他们一点时间,相信AI方面的性能表现会有阶梯式的提升。

目前,本地AI应用,尤其是普惠型的本地AI应用落地少,除了技术适配需要更多的时间之外,商业运作上缺乏盈利模式也是一个很大的阻力。目前AI相关的软件公司更多的是去开发某一细分领域的专用垂类应用,在当下的环境可能To B可以以更低的成本换来更高的关注度、实装量、资金和收入,例如行者AI推出了专门用于音乐教育的音乐创作系统,教育领域→音乐教育领域,是很细分的一个领域了。

而To C的应用则大不相同,往往需要大量的先期投入,开发费用、营销费用、人力成本等等,这不是小体量公司玩得转的,除了这些外,应用的盈利点对于初创公司来讲也不清晰明朗。

所以,更具普惠型的本地AI应用落地可能要等待到行业更加成熟之后大厂入局,凭借旗下的生态联动、更大的影响力与更多可调配的资源,能够达成从立项到后期盈利的健康链条,可能才会有更易用的应用出现。

·写在最后

AI从云端转移至本地将会是未来相关公司和厂商的重要着力点。在用户侧,更快的响应、可随时随地调用、无需联网等都是其先天优势;而对于提供商来讲,这将大幅减少服务器的算力和带宽的巨额费用,所带来的成本缩减是极为可观的。可以讲,AI本地应用是用户与厂商的双向奔赴,但这个行业尚属井喷初期,在个人算力紧缺以及商业模式未定的今天,个人用户与厂商之间的双向奔赴还存在不小的阻力。

尽管面临挑战,AI本地应用的前景仍然充满希望,让我们保持期待并耐心等待吧!

AI PC   AI   AIGC   AI本地应用   英特尔   AMD
Dwight

网友评论

聚超值•精选

推荐 手机 笔记本 影像 硬件 家居 商用 企业 出行 未来
二维码 回到顶部