M4 Pro 与 本地LLM

LM_Studio_MLX

今年搭载M4 Pro芯片的MacBook Pro在众多视频评测中展现了许多亮点。相较于上一代的M3 Pro产品,这次升级更为显著。其中屏幕亮度提升到SDR 1000尼特,HDR 1600尼特。接口全面升级为雷雳5,当然,这也是个战未来的升级。

作为一名长期使用M1 MacBook Pro的用户,对我来说其实性能没有什么问题,只是内存太小了。经常在活动监视器中看到内存压力显示为黄色,这让我感到有些焦虑。当然设备使用起来其实没有明显的卡顿感,只是这次M4的性能提升同时碰到了国补,想着要不要顺带升级一下。

m4m4pro对比

对比配置后发现,配备24GB内存的M4 Pro MacBook Pro售价为16999元,只比配备24GB内存的M4版贵1000元。在处理器、图形处理能力和内存带宽等方面有显著提升,这种价格差距使得升级至M4 Pro版非常值得。然而,详细了解了一下以后发现国补的M4 Pro丐版并不好抢。兜兜转转也是等了很久,我最终未能享受到国家补贴的优惠,而是选择了在苹果的授权经销商处购买了一台内存升级至48GB的M4 Pro机器。

为何要选择48G内存呢?首先我的使用习惯比较差,比如我的Chrome一般是等到Tab栏实在放不下了才会去整理关闭。其次,也是比较重要的一点,是为了尝试本地运行大语言模型。尽管当前环境下,直接调用网络API可能更为高效。但我对探索的热情促使我决定亲自尝试,毕竟模型的发展速度如此之快。例如,现在可以免费调用的Qwen2.5 7B开源模型能力上已经基本接近去年OpenAI的GPT 3.5 Turbo模型。只是没想到这台笔记本电脑的内存配置突然成为了家中最高的。相比之下,我家的HomeLab服务器(Gen10 Plus)也只有32GB的内存。

本地LLM体验

lmstudio_mlx

通过网络搜索了解到,0.3.4版本的LM Studio特别为MLX格式(Apple开源的机器学习框架)进行了标注和筛选。理论上MLX在苹果设备上的性能优于GGUF。

qwen2.5coder14b_gguf_mlx

我测试了Qwen 2.5 14B(4bit)版本,发现使用MLX格式确实带来了约15%左右的轻微性能提升,但这种提升在实际使用中的感知并不显著。此外,即便使用了MLX框架,在使用过程中我也未能观察到M4 Pro的NPU参与运算。

lmstudio_asitop

对于参数量为32B及以上的大模型,即便在M4 Pro上运行,每秒生成的token数量也不太令人满意。这类大模型在M4 Pro上的性能与日常使用场景的匹配度不高。

总体而言,经过初步体验,我发现尽管M4 Pro相比之前的产品有显著提升,但并未给我带来如同初见M1 MacBook Pro时那种突破性的惊喜。

当然,超高的内存配置给了我未来探索可能性的空间,或许这次升级的最大价值在于此。

comments powered by Disqus