首页 > 笔记本 > 笔记本评测 > 笔记本_单机评测> 正文

实测:酷睿Ultra轻薄本部署本地DeepSeek R1推理模型 效果超预期!

小烂毛 编辑:小烂毛 发布于:2025-02-23 11:00 PConline原创

从智能语音助手到图像识别,再到如雨后春笋般诞生的各类生成式AI,AI正以惊人的速度改变着我们的生活和工作方式。

就在大家还在为云端AI不停转圈圈而头疼的时候,我们已经成功在一台酷睿Ultra轻薄本上部署本地DeepSeek R1推理模型。实际运行效果远远超出了我的预期,已经能在保证我数据安全和个人隐私的情况下,为我日常文案创作提供更多灵感了!

↑16GB内存,第一代酷睿Ultra处理器轻薄本

↑DeepSeek本地推理模型同样提供思维链路,输出结果令人满意

此次测试使用DeepSeek R1 7b(70亿参数)推理模型,虽然参数量不大,但其在传统的大语言模型基础上拥有了强化推理、逻辑分析和决策能力,像是数学难题、编程问题都能给出多种解法与清晰解题过程,实际应用效果不错。

下面请随我一起看看具体实现方法和运行效果吧。

做好准备!

1.推荐选择32GB内存版本酷睿Ultra机型(16G内存机型可运行7b;32G内存机型可运行14b)

2.预留30GB以上固态硬盘空间

3.无需独立显卡,核显就能起飞

本次部署DeepSeek R1大模型几乎零成本且操作十分简单,一台酷睿Ultra轻薄本就能搞定。当然这离不开英特尔和合作伙伴之间的紧密合作,以及酷睿Ultra处理器强大的AI性能。酷睿Ultra这类为AI应用而生的处理器全部采用CPU、GPU 以及NPU三大AI引擎协同工作的架构。第一代酷睿Ultra处理器已可实现在离线状态下运行200亿参数的大语言模型,而第二代酷睿Ultra的总算力更是达到了120TOPS,为用户实现高质量的即时AIGC内容提供了更可靠的保障和更高效的体验。

实现步骤:

1)下载安装 Flowy AI PC 助手

DeepSeek模型在Flowy AI PC助手上的安装过程简单直观,整个过程可以概括为:下载/安装助手→注册登录→选择/下载模型→开始使用。即使是没有技术背景的用户也能轻松完成部署。

在英特尔AIPC官方网站(intel.cn/aipc)下载Flowy AI PC助手(酷睿Ultra版)。

下载完成后,只需按照提示进行标准安装即可,整个过程通常不超过5分钟。

安装完成后,打开Flowy AI PC助手,系统会提示扫码登陆账号。值得注意的是,虽然是本地部署模型,但账号系统有助于跟踪用户的模型使用情况,并在未来提供个性化的模型推荐。

2)选择并安装DeepSeek模型

登录成功后,在Flowy AI PC助手的左侧导航栏中,可以看到"模型市场"选项。点击进入后,选择"本地模型"标签,系统会显示所有可用于本地部署的AI模型列表。

在这里,我们可以看到DeepSeek R1 7b等多个不同规格的DeepSeek模型,且本地模型在不断更新中。每个模型旁边都有详细的介绍,包括模型大小、适用场景等信息。点击模型右侧的 “...” 按钮,在弹出的菜单中选择 “安装” 选项,系统将自动下载并安装 DeepSeek 7b模型。

系统会自动开始下载模型文件,由于DeepSeek-R1 7b模型比较大,下载过程可能需要一些时间,这取决于您的网络速度。下载完成后,系统会自动进行安装配置,将模型优化适配到您的酷睿Ultra处理器上,以充分利用电脑性能优势。

3)使用DeepSeek模型

当安装完成后,系统会显示安装成功的提示。此时,回到Flowy AI PC助手的主界面,在对话框左上角可以看到一个"大脑"图标。点击该图标,会弹出已安装模型的列表,选择刚刚安装的DeepSeek模型即可开始使用。

此时,我们就可以开始与DeepSeek进行交互了!部署全程没有复杂的命令操作,是不是还挺方便的呢?

实际效果体验

基于酷睿 Ultra 处理器的AI PC运行DeepSeek最大的优势之一就是可以实现本地处理,无需将大量的数据上传到云端,减少了对网络的依赖,同时也提高了数据的安全性和隐私性。

从硬件层面来看,在英特尔酷睿Ultra处理器上,DeepSeek模型的运行性能令人印象深刻。模型加载时长大约10秒左右,加载后即可进行推理并输出结果。DeepSeek R1 7b模型在推理时约占用6-8GB内存左右,这对于16G内存的电脑来说是完全可接受的。

CPU占用率则维持在40%左右,GPU利用率则在90%左右。这种资源分配策略充分利用了酷睿Ultra的异构计算优势,将AI计算负载主要分配给GPU单元,从而保证主CPU有足够资源处理其他任务(如同时打开多个浏览器标签、运行视频会议软件等)。

内容生成(如回答简单问题)方面几乎无延迟,文字生成速度可达每秒15-20个字,整体流畅度仍然令人满意。

实际体验来看,DeepSeek R1系列模型在逻辑推理和数学问题处理方面表现比较出色。我首先尝试了网上比较热门的一些考验AI的语义理解、逻辑推理等能力的问题,其中有一些脑筋急转弯类的问题模型也给到了令人满意的答复:

“numbers由几个字母组成?”(答案:7个)

“7年前,妈妈的年龄是儿子的6倍,儿子今年12岁,妈妈今年几岁?”(答案:37岁)

“张三打了李四一巴掌,李四对张三说:你是不是没吃饭,李四说这句话含义是?”(答案:含义是张三打的轻了)

“开车变道时为啥就算后面没车也要打转向灯?”(答案:好习惯)

“一斤铁和一斤棉花谁重?”(答案:一样重)

“妈妈掉水里先吃饼干还是巧克力?”(答案:先救妈妈)

DeepSeek R1 7b还能够准确解决数学问题,包括代数方程组、三角函数、解析几何等。我尝试了一些复杂的数学推导问题,模型不仅给出了正确答案,还能详细解释推导过程,思路清晰,步骤完整,并且它还会反复验证自己的结果以保证准确。这种能力对于学生或需要数学辅助的人来说极为有用。

几何:“已知三角形两边长分别为5和8,夹角为60度,求三角形的面积”

概率:“从一副标准扑克牌(52张)中随机抽取一张,求抽到红心或K的概率”

个人感觉本地7b的内容写作方面虽然不及常用的豆包,但结果也不至于很差,还是能给到我比较好的写作参考价值。

“以泡泡裙为主题生成一个小红书风格爆款营销文章,要求500字以内”

“撰写一副春节对联,寓意家庭和睦、健康平安、财源广进”

另外,还可以用它支持中英等多种语言之间的互译,翻译质量比以往机械翻译强很多。

小结:

DeepSeek R1模型在英特尔酷睿Ultra轻薄本上可以流畅运行并且提供超越想象的结果,可以视为小模型本地部署的重要里程碑,让我看到了未来AI技术"从云到端"发展的广阔前景。如果后续大家对DeepSeek推理模型本地部署感兴趣的话,我们将进行更多测试,包括看看不同配置的机型(包括内存更大、性能更强的第二代酷睿处理器机型)在运行8b、14b等参数量更大的推理模型时的效果,我相信这一定会很有趣。

网友评论

聚超值•精选

推荐 手机 笔记本 影像 硬件 家居 商用 企业 出行 未来
二维码 回到顶部