小伙伴们好,我是潮玩!关注一下,每天都有新收获哦!
上两篇,我们分别对零刻GTi15 Ultra的生产力及游戏性能做了测试。今天,我们将聚焦于当下最火爆的AI赛道,一起看一看,这款新品主机的性能表现吧。毕竟,在这台小机子里有着Intel系列近乎顶流的处理器,我们也蛮好奇的。
一、超强算力,零刻GTi15 Ultra AI性能跑分
零刻GTi15 Ultra内置的处理器是Intel Core 9 285HX处理器,它是一个复合了CPU、IGPU和NPU的算力核心。从性能上来讲,相较于上一代它的AI算力提升了187%,达到了99TOPS。
我们也使用了鲁大师对其进行了测试,其中,CPU方面它的超分辨率达到了24783、人脸识别达到了15202、物体识别达到了23531、阅读理解达到了64849,背景虚化达到了7901,处理器AI综合得分为21451分。
同时,鲁大师也对显卡的AI性能进行了测试,它的总体得分为65776,超分辨率为33927、人脸识别为141672、物体识别为101107、阅读理解为138195,背景虚化为18334。
鲁大师的评测项目比较细致,但大体上可以分为两类,分别对应着语言大模型和视觉大模型。从上面一系列的得分可以看出,零刻GTi15 Ultra是完全可以应对日常AI需求的。
同时,我们还使用了Procyon测试软件的AI部分,对零刻GTi15 Ultra进行了测试。需要特别说明的是,由于Intel Core 9 285HX处理器本身就自带了iGPU和NPU,其中显卡可调用显存可达16GB。因此也具备了跑语言大模型的基础。
从上面的一系列数据可以看出,虽然是一台迷你主机,但它已经具备了应对众多语言大模型的能力,还是非常强悍的,基本上可以驾驭家用或准专业级的AI应用。但对于高阶语言大模型,它是可用但响应会略慢。
在文生图大模型的测试之中,我们可以看到,整机的性能得分为244分。其中,测试生成的16张512x512图片,总时间为408.518秒,单张图片生成时间为25.532秒。可以说,不论是语言大模型的运行,还是文生图,这台小机子的性能确实很强悍。
二、蛮强的AI麦克风,录入文字不用手
这次升级到零刻GTi15 Ultra,我们主要是看重了它的两个特性。一个是它在机身上使用了一排四个麦克风组成AI阵列降噪。通过AI算法,它可以甄别人声并自动过滤背景音。这是因为,零刻在阵列麦克风组中内置了B1降噪芯片,并具备了DNN神经网络的算法。通过对特定波形的分析,它可以在提纯人声的基础上,消除回声、啸叫并自动调节人声音量的增益大小。我们也做了一个简单的小测试,当打开Adobe Audio录制音频时就可以发现,这组阵列麦克风不会将拍手声录制进去,但会准确的捕获人声。
这个时候,我们使用AI比如说“豆包”的语音功能互动就非常方便。你问它答,就相当于身边多了一个懂事的小助手。
另外,它对于声音细节的捕获也是非常准确,比如,我们现在已经用阵列AI麦克风来配合讯飞输入法取代键盘的文字录入了,而且准确度很高、识别迅捷,让人放心。
三、双万兆网口,打造顶级局域网速率工作站
本次的零刻GTi15 Ultra配备双万兆网口,这绝对是一项战未来属性的配置。万兆网口的理论传输速度最高可以达到1.25GB/s,理想状态之下可以做到秒传1GB文件,这对于频繁使用局域网,调用视频素材的友友们来说,应该是一种福音的存在吧。
此外,对于有一定网络应用基础的友友们来说,通过链路聚合,将两个网口“合并”使用,在多流并发的情况下,它还可以实现最高20Gbps的传输速度。
四、本地大模型部署及测试
(一)AIBOX简测
零刻系统预装了AI软件和模型,可以说是一个集大成的版本。在这里,我们不单单能够使用预制的Deepseek,还可通过API接入其它的大模型,甚至预制了很多特性智能体,对于新手来说,也是比较友好的。
我们也用它回答了几个问题,总体的反馈也是比较快的。比如,我们提出上述的问题,经过它的思维展示时,到回答它使用的时间为17.8秒。这个和网页版的速度差距是有的,但也完全在可用的范围之内。
除了本地版之外,我们还可以在模型管理中,通过输入API来调用其它在线模型的算力,
及选择自己喜欢的智能体,生成特定风格的回答。
甚至是添加自己所需要的知识库,并用它来定制、训练自己的大模型。可以说,使用AI模型的方方面面,它都有照顾到,非常适合萌新上手。
(二)DeepSeek 8B测试
当然了,除了它,我们也测试了借助LMSTUDIO部署的DeepSeek。与AIBOX相比,它下载和选择模型更为方便,但缺点是很多设置需要自己摸索。不过,它的界面与AIBOX相似,我们就不单独赘述,直接看一下实测数据吧。
在DeepSeek本地大模型之中8B的版本,可以说是比较均衡和广泛使用的一个。本次测试也是使用的这个版本。我们提问,你好,DeepSeek进行了回答。从下面提供的数据可以看出,零刻GTi15 Ultra的响应为14.48token/s、247tokens,首个token用时0.48s,耗时17.05秒。
在回答你是谁的时候,零刻GTi15 Ultra的响应为14.17 token/s、310 tokens,首个token用时0.46s,耗时21.78秒。
最后,我们要求它来编写一个贪吃蛇小程序,结束后,我们来看数据。零刻GTi15 Ultra的响应为13.62token/s、1665 tokens,首个token用时1.44s,思考时长为122.24秒。
从上述的一系列测试可以看出,零刻GTi15 Ultra是完全可以驾驭在本地部署的中阶语言大模型的,而这也满足了友友们约90%+以上的需求。
同时,我们也对内存的使用情况进行了检测,从中可以看到,在运行8B大模型时,它的内存占用可控,从测试的两周来看,系统稳定也从未闪退。不论是让它推理,还是编程,都可以很效率地完成。
(三)Stable Diffusion测试
同样,我们也使用Stable Diffusion测试了一下零刻GTi15 Ultra文生图的能力。我们使用略微简单的提示词,迭代步数20,一次一张图片直出,用时是1分57.91秒。
使用复杂提示词,迭代步数30,一次四张图片直出,用时是6分51.56秒,平均2分钟一图,还是相当不错的。特别是,对于只有核显的迷你主机来说,甚至有点让我们感到喜出望外。
在跑Stable Diffusion时,我们可以看到,它的内存使用量约在17.4GB,冗余空间足够,系统运行流畅且稳定。
五、都有云端了,我们需要在本地部署AI吗?
虽然这是一个见仁见智的问题,但却和您的实际需求密不可分。如果您平时使用AI仅仅是作为搜索工具的话,那么肯定是云端AI具备着更强的算力与更新的知识库。
不过,若您想使用专门为您个性化需求定制的AI大模型,或是有着数据保密要求的话,那么本地的大模型显然更有优势。不论是语言大模型,还是文生图大模型,它们都可以通过添加知识库或是单独的训练,变成您想要的样子。
六、那么,我们又是怎么使用本地大模型的呢?
在自媒体领域,我们对于AI的应用主要就是补短!通过有意识地给本地模型添加知识库,我们可以让大模型专注于某一领域并成为专家,在节目的创作中,它就会根据知识库作答,不会像联网模型一样,信口开河地拼凑答案,甚至可以为我们提供创作思路或大纲。
补的第二个短,就是画面!不是每一个自媒体创作者都是好的画手,以前遇到问题,我们会求助于网络。但随着版权要求的越来越严苛,贸然使用网上图片,非常容易踩红线,导致作品下线或账号被警告。而通过本地部署训练出来模型所创作的图片,将会极大地减少此类风险,同时也会丰富我们作品的视觉表现。
购买建议:
虽然是一台小小的主机,但是零刻GTi15 Ultra战未来的属性,已经在最近开始频繁发力!它的AI算力,已经可以满足友友们的日常需要。同时,AI阵列麦克风+AI工具的模式,也极大地拓展了我们的使用场景。如果您也对AI提升工作战力感兴趣,那么可以多关注一下这台性能小怪兽哦。
好了,本期的体验分享就到这里,我是潮玩,8小时内努力搬砖,8小时外热烈码字,这里持续分享数码新体验,承蒙欢喜,予我厚爱,我们下期再见!