预算19k以内,想换台mac,请问有推荐的吗?

最近因为intel芯片的mac一直风扇呼呼响,一跑本地7B大模型就会卡死重启,遂动了换电脑的想法。在某鱼上面看到了好多m2max,m3max 64g 96g的电脑价格都只在发售价的一半,但是是外版,说有AC,但是也不确定能不能在国内保修。一直没有找到合适的,想问问群友们有没有推荐。要求就是能跑7-14B本地大模型,然后会开两到三个IDE,准备用5年左右的。

哦 你想最小成本获得相对稳定,最高效果。我听说m4还能串联,你研究研究 我回来有需要来超作业。

老外用19k是因为没有万这个单位啊 :rofl:

3 个赞

imac

这个预算可以等 M5 Macbook Pro,16寸的新机,预计1月份~3月份。

个人认为的Mac系列的性价比排名:Mac Studio > iMac > Mac mini > MacBook Pro > MacBook Air

没有Mac Pro是因为我没用过

本地跑大模型,还有使用5年的话,估计要上到顶配了~

M5Pro不确定有多大的提升,这边在闲鱼看到有好多外版官翻机价格很心动,但是不确定能不能保修,就很难受

是的,就在考虑到底是M2,M3系列的Max还是m4,m5的pro了

有考虑过用mac stdio组联网,但是看只有m4stdio可以走内联能达到3ms的延迟,以下的只能走网络最低也有300ms的延迟,而且这样的话成本会高好多

确实,但是这边使用场景也包含了工作场景,想便携一些,所以目前排除了stdio,不然单纯家里跑大模型的话肯定组网stdio是最好的了

这个要求,一个14G显存的显卡就够了,直接买一个4070或者5070,或者4060Ti(16G显存)都是可以的。

别听网上瞎忽悠说Mac适合跑大模型。如果仅仅是“能”跑的话,你配上32G的内存一样“能跑”,就是速度慢。Mac的速度不行,远远比不上英伟达的显卡。你用Mac跑,跟随便买一个Windows的电脑,配上32G的内存,差别并不大。

不过,你的LLM的使用场景对上下文有要求吗?你听说过一个叫作KV Cache的东西嘛?你的上下文如果开的高了,那么,什么电脑都扛不住。不太清楚你的具体需求,所以,不知道最好的解决方案是什么。

其实,用LLM最好的办法,就是找LLM服务提供商,你看一下他们的费用,买一个显卡的钱,够你用上十好几年的服务了。

最低价买入 m3+ cpu , 24-32g统一内存 , 512起步存储.

其他都可以从简.

本地大模型毫无意义. m龟上只能用, 吐字速度太慢. 上面剩下的3-8k, 你想想够充值或者api调用估计10年了.

没懂,所以,是,赞成我的观点?

1 个赞

预算之内选最贵就对了