16GB开始力不从心
2021年末购置这台MacBook Pro时,更多考虑的是CPU,当时Mac刚更换M系列芯片,注意力都在那里,其他配置都是够用就行,尤其是RAM,8G依然是大多数的选择,16GB属于已算是比较高的配置,毕竟最高只能选配到64GB。配合M系列芯片的技术可以将部分硬盘空间调用为临时RAM,16GB够用。如今,哪怕是开发者,16GB依然够用。
那为什么我说不够用了?AI来了。
更多AI相关的功能开始随着macOS进入设备,比如打开一张图片可以直接OCR图片中的文字,这就导致一个问题,要达到潜移默化的本地效果,大量进程开始在后台占用RAM。通过自带的活动监视器,观察未打开任何应用程序的Mac,16GB的内存已经能占去将近8GB的RAM,再多开几款功能强大点儿的效率工具,内存很快就会触碰到16GB的临界值。即使这样,Mac依然不会出现明显的卡顿。
问题在于端侧AI大模型,或者说本地大模型,这也是目前Apple Intelligence一直体验不尽人意,或者干脆推迟的原因。在设备端跑大模型,一般是将大模型载入到RAM中去执行任务的。以我16GB RAM的Mac为例,开源的gpt-oss-20b,大小不到12GB,关闭所有应用时,在限定上下文的情况下可以使用,不过稍长一些的上下文就不行了,轻则导致系统卡住一会儿,重则直接重启。太小的模型则无法达到效果,我试过几款专为移动端设计的模型,单模型效果很差,需要做大量优化工作。
使用不到5G的DeepSeek R1,偶尔也会因为开的程序太多,出现延迟。连Ollama这款专为本地运行大模型设计的App也注意到用户设备能跑动的大模型太有限,在0.12版本中推出Cloud模型服务。
要么放弃对于自己数据的完全掌控,选择云端大模型,要么就换更好的设备,几乎成了大模型的唯二选择,与我来说再撑撑,就换个RAM更大的Mac。