AI 正在“矿机化”:成本降 10 倍,GPU 会被淘汰吗?

就是视频软解和硬解的区别

@PandaFiredoge

软解和硬解分别是什么

软件解码和硬件解码

如果不需要追求最新的模型,这玩意是可用的,而且只要包装成可以一次性售卖的模型,就又给资本市场讲了一个新的故事,算是比较利好大模型厂商和硬件厂商,只需要有人可以先把路趟出来,只不过最后是康庄大道还是一地鸡毛,不好说。

感觉还得要不少年,Llama 3.1 8B是2024年7月发布的,到今天大约需要20个月才能完成芯片设计到成品,而大语言模型迭代太快,半年左右就出一个进步不小的新模型,假设半年是一个更新周期,那芯片化模型要落后3个周期左右。

再论模型规模,这只是8B大小的模型,能力太差,怎么说也要百B数量级的模型,才能拥有足够的知识量和逻辑能力,这种规模的模型要实现芯片化,感觉比8B难太多了。真要实现了,面世时也得比当时最新模型落后更多周期了。

简单来说,软件运算和专用芯片运算的区别是:

软件运算:你请回来一个厨师,厨具简陋,想让他做什么菜他就愿意做什么菜,不会就学。特点是效率低,但啥都可以做。
硬件运算:你买回来一个自动炒菜机,他只会烧一道菜,而且用的是专用厨具,材料也是专供的,一切都是自动化的,效率最高达到10倍以上,长期使用成本最低,缺点是他只会烧这一道菜。

有做饭经验的都懂,你一道菜烧出来,从头到尾花的时间半小时以上很正常(买菜、理菜、洗菜、切菜、洗厨具、炒菜),但是饭店里一道菜可能就2-3分钟搞定,提前备料、猛火灶、专用厨具、靠谱厨师,效率十倍不是开玩笑。

这篇文章里,最大的问题是效率下降太快了。

读标题的时候还是: 成本降 10 倍。
读到正文的时候变成了: 成本大约是同等 GPU 方案的一半。

:rofl::rofl::rofl:

主要还是现在AI迭代的周期太快了,看模型的排行榜,之前GPT3的时代,能霸榜几个月,而现在新模型出现后,基本几周甚至几天就被挤下去了,新模型很容易就实现对旧模型的大幅领先。

ASIC不是你那样比喻,ASIC相当于直接用硬件结构实现了软件代码。

按其描述,不仅仅是将算法硬件化,还将大模型参数也硬件化;
参数就是相当于多维空间里的坐标,我比喻成定位好的乐高块;
调用大模型相当于借助算法将输入的参数与模型参数进行多层多轮矩阵运算,我比喻成往透明乐高块上着色;
我比喻最终成果是“画”的确有点局限了,应该说是定制可动玩具模型;“画”的平面、静止印象,会让人觉得从输入到输出的过程缺少难度。

突然有一个奇怪的想法,区块链挖矿的计算题往往没什么现实意义,消耗的电能只有极小部分用于记账,其余绝大部分都被浪费了。那么能不能让区块链挖矿的算力不浪费在没意义的数学题,而用于AI推理呢?不知道逻辑上是否可行 :joy:

分布式,不是啥新鲜概念,十几年前,挖矿刚兴起的时候就有类似的科学项目,比如算圆周率。

不过问题在于,用户为什么要费电真金白银的去参与你的项目?之前比特币不值钱的时候,也没多少人花大成本去挖矿。

现在是的,不过你说的是最新最顶尖的模型,但是对于一个模型提供商来说,一个稳定的模型能提供服务周期在一年以上,例如openai的api服务,现在(26年3月)还在提供25年4月的的GPT-4.1版本服务。

而chatgpt免费版使用的模型,往往也有大约半年的生命周期,这个技术如果在一年后能实际落地(没有大的硬伤,确实能节约成本),一方面模型的更新升级会放缓,另一方面模型算力提供商也会调整自己的运营策略。

对于模型提供商来说,不需要把每个模型都硬件化,只需要硬件化一些历程碑版本(例如GPT3.5,GPT4o,GPT5等),用于低价用大众提供服务,而中间的过渡版本,继续使用gpu作为试验性质或向少量vip用户提供高价高性能服务即可。