AI 已成为 PC、手机行业这两年最热门的词汇,虽然由于种种原因 Windows 系统自带的 AI 功能目前尚无法使用,但鉴于 AI 行业处于一个高速发展期,几乎每三到六个月就有诸多变化,使用独立第三方工具可以提供最及时的体验。 在 AI 使用上分为云端和本地两种部署方式,二者各有优劣: 云端部署:优点包括算力更高、单位算力成本更低、部署更简单(很多服务商提供了一键式部署),模型更新速度也很快。缺点在于数据存储在云端、响应速度受限于网络和服务提供商、内容被审核(熟悉赛博画图的用户应该深有体会)、部分模型可能因服务商调整被下架无法提供稳定的长时间服务。本地部署:优点包括数据安全性好、响应速度快、以及自有部署可以提供稳定的服务,内容不受云端审核。缺点在于算力相对较低,单位算力成本相对较高。 ▼Intel 官方推出的本地 AI 应用 AI PLAYGROUND 
本地和云端应用并没有绝对的优劣之分,更多应该根据实际需求来灵活地选择云端还是本地。比如最近OpenAI开源的gpt-oss就提供了120b和20b两个版本,120b适合部署在服务器或高性能设备上,而20b版本则很适合在个人笔记本和台式机上运行。 本篇测试基于零刻 GTi15 Ultra,配置为: Intel Ultra9 285H32GB 内存Intel Arc140T 核显/影驰 RTX4070Ti Super 大将(EX Pro 显卡扩展坞) ▼零刻 GTi15 Ultra 
▼零刻 GTi15 Ultra+EX PRO 显卡扩展坞+影驰 RTX4070Ti Super 大将
AI 服务分别运行在 CPU、GPU、NPU 以及外置 EX Pro 显卡扩展坞上,测试/玩法主要基于: 无需命令的 Intel AI Playground 应用秋葉大佬的 SD 绘世整合包仅需敲几行代码的 Ollama 本次体验的主要内容是生图和语言大模型,希望通过本篇简单的测试,能够让大家了解只要有一台性能足够强劲的PC,本地部署和使用AI的门槛其实是非常低的。以本次测试的零刻GTi15 Ultra采用的Intel Ultra9 285H处理器为例,官方标称总AI算力已经达到99 TOPS(Int8),其中GPU 77TOPS、NPU 13TOPS、CPU 9TOPS,支持的AI框架包括OpenVINO™、WindowsML、DirectML、ONNX RT、WebGPU、WebNN。 


AI算力方面相较于上一代Ultra9 185H的34.5 TOPS,本代大幅提升到99 TOPS,187%的提升幅度十分明显。尤其是GPU部分77TOPS的INT8算力,理论上已经超越了RTX 3050(70TOPS INT8),接近RTX 3060(102TOPS INT8),而且最高128GB内存也远超入门级显卡8GB/12GB显存的配置。 
INTEL AI PLAYGROUND 都能做什么?目前最常见的 AI 应用可以简单地分为如下几类: 文本生成图像生成语音生成视频生成 每一大类都会有很多具体的应用,比如文本生成类就有搜索、代码修改/生成、文本润色/生成、旅游规划、知识库等各种具体的应用。Intel AI Playground是Intel官方针对Ultra处理器和Arc显卡专门适配的工具,目前主要提供了图片生成(文生图)、图片增强(放大、重绘、扩图)、问答等功能。可以一键下载包含运行环境、大模型在内的全部文件,并且可以自动调用算力更高的GPU,实现傻瓜式AI部署。 ▼图片生成 
▼图片增强(扩图) 
▼问答 
不过需要注意的是Intel AI Playground对网络的要求比较高,需要良好的连通性,才能体验这种傻瓜式的一键安装服务。官方程序界面内未提供的模型,也可以自行从网络下载后,放置到对应文件夹,然后在软件内进行调用。 AI 性能测试配置方面,这台零刻GTi15 Ultra采用Intel Ultra9 285H处理器,搭配32(16+16)GB DDR5-5600内存,Win11专业版系统。 
赛博画图速度由于某位Intel大神基于秋葉大佬的绘世整合包,修改的能够调用Arc核显的版本目前只支持Intel Ultra 1XX系列处理器,这次测试CPU和独立显卡部分基于秋葉大佬的绘世整合包,而GPU部分直接使用Intel AI Playground,使用相同的模型测试出图速度。 测试统一使用20Steps,分别测试生成512x512和1024x1024两种分辨率的图片: 单纯依靠CPU,强如Ultra9 285H也需要1分钟多的时间才能生成一张512x512的图片Arc140 T核显生成512x512仅需8.3秒,可用性大大提高,可以满足日常测试/修改各种提示词和参数来学习生成流程/轻量级生产力使用外置EX PRO显卡坞+RTX4070 Ti Super,出图速度和上限就很高了,可以轻松作为生产力工具使用 
▼生图速度外置 GPU>内置 GPU>CPU 
显存占用方面,Intel AI Playground生成512x512图片时仅占用2.6GB,系统默认提供了最高18GB的共享显存,空间还是非常富裕的。 
CPU生成512x512图片时,任务管理器内显示python占用了6.4GB内存,相比GPU模式明显更多,不过总内存32GB也依然有很大富余空间。 
问答模型 Deepseek-R1:8B & gpt-oss:20B问答模型测试中,我们测试了本地大模型生成速度,CPU部分使用官方版Ollama,GPU部分则使用魔塔社区可以下载到的Intel官方提供的优化版Ollama(调用GPU)。使用三个问题测试生成速率(Tokens/s),三个问题分别是数学题、普通问答和编程题目,来测试大模型生成速率。 ▼Ollama 运行 Deepseek-R1:8B 占用内存约6.5GB,对于 32GB 的内存压力不大,对生成效果要求较高可以适当提高模型参量(14b 或 32b) 
CPU模式下三个问题的生成速率分别为11.61、11.57、11.41tokens/s,属于比较可用的水平(一般生成token/s >10生成答案才够快),而GPU模式下则依次为13.96、13.51、13.4tokens/s,GPU生成速率大约是CPU的120%。 

而gpt-oss:20b是OpenAI新开源的两个模型之一(另外一个是参数量更大的120b),是一个中型开放模型,很适合用于低延迟的本地部署,能力方面也很接近于o3大模型。 
由于 Intel 优化版的 Ollama 暂时还未适配该模型(官方反馈适配中),使用 Ollama 官方(CPU)部署 gpt-oss:20b 进行测试,实测内存占用约13.6GB,对于 32GB 内存的零刻 GTi15 Ultra 来说压力不大。 
生成速率方面虽然是 20B 大模型,实测三个问题生成速度分别为8.76、8.67、8.47 tokens/s。 
不过gpt-oss:20b的思考深度计算并不像deep-seek那样耗时,实际三个问题分别耗时24、26、65秒,对于本地应用来说速度也是足够快的。 


本地 AI 应用实例: VSCode + Cotinue 插件 + Ollama ,实现本地 AI 辅助编程AI IDE在AI应用中已经逐渐从尝鲜变为刚需,无论是职业码农、编程初学者,还是使用代码进行自动化测试的工程技术人员,AI的应用都在让编写/调试代码变得更加高效(当然AI不能完全替代人工,它是提高效率的工具)。 我个人最近在使用 Continue,它是一款可以搭配 VSCode 和 JetBrians 使用的 AI 编程工具,支持聊天(Chat)、代码补全(Autocomplete)、编辑(Edit)、智能体(Agent)。 
Continue 本身不开发 AI 大模型,但支持本地和云端接入各种大模型,我的使用方式是: VSCode 安装 Continue 插件Ollama 本地部署大模型Continue 调用本地 Ollama 部署的大模型 具体部署教程的内容,由于网络上已经有很多详细文章/视频介绍,这里就不再重复造轮子了。实测使用 ollama 部署 gpt-oss:20b 作为 chat 模型,生成一个 pyqt 的 UI hello world! 程序,大约用时1分30~40秒左右。如果替换成 codeqwen:7B、codellama:7b/13b、codegeex4:9b 等类参量更小的模型,生成速度应该会更快一些。 
不过对于速度要求更快的代码补全,Continue内可以选择参数量更小、效率更高的Qwen2.5-Coder 1.5B,实际使用中大概在输入停下几秒后补全代码就会弹出,速度还是比较快的。 
使用AI为网上下载的代码生成注释,能够更方便地理解代码运行逻辑,实测使用零刻GTi15 Ultra + Ollama运行gpt-oss:20b生成注释的速度同样是分钟级别(根据代码长度和复杂度成比例),这已经是非常可用的速度了。对于学生/编程初学者/非软件开发人员而言,AI辅助编程可以让用户更快地学习代码,参考AI生成/编辑/Debug的过程相比传统搜索效率提升不少。如果您手头也有足够性能的PC/Mac,可以考虑尝试使用本地/云端AI工具来提升工作效率。 ▼Chat+Edit 生成并调试打开 txt 文件并 print 
▼Chat 生成注释 
AI 与语音除了自行部署 AI 应用,实际上还有不少的综合型 AI 助手,比如被广泛使用的豆包。它的本地版本整合了 AI 浏览器与Agent 功能,提供了包括写作、编程、图像生成、视频生成(测试)、本地文件回答等服务。 
其中较为有趣的是新增的 AI 通话功能,用户可以通过语音通话的方式,逐步让 AI 助手协助完成各项任务。例如,我曾通过多轮对话,让 AI 助手帮忙汇总了笔记本电脑市场的部分销售数据,这种语音交互方式颇为便捷。 
当然,语音交互的前提是需要配备麦克风和音箱,这就用到了 GTi15 Ultra 所集成的 AI 降噪麦克风阵列及内置音箱。在实际体验中,GTi15 Ultra 的 AI 降噪麦克风阵列能够有效抑制环境噪音,这对于 AI 语音应用的流畅运行和通话质量的保障而言至关重要。 
▼夏日空调房间+开启风扇的时,AI 降噪有效滤除环境噪音,录音底噪非常干净 
总结通过本次测试可以看出,现代PC在本地AI应用方面已经具备了相当不错的性能表现。无论是图像生成还是语言模型,都能够提供实用的体验。特别是零刻GTi15 Ultra采用的Intel Ultra9 285H处理器,其AI算力提升显著,为本地AI应用提供了强有力的硬件支撑。 总的来说,随着硬件性能的不断提升和AI技术的日趋成熟,本地AI应用的门槛正在快速降低。对于有一定技术基础的用户来说,搭建属于自己的本地AI环境已经变得触手可及。 好了,我是KC,本篇测评到此结束。如果大家对于零刻GTi15 Ultra还有什么疑问,可以在评论区留言,我会尽可能回复或者在下篇文章中更新。感谢大家的观看,希望大家一键三连支持一波~
|