1月7日上午,英伟达总裁黄仁勋在全球最大的消费电子展上作了演讲。
此前就有海外科技博主预测,英伟达即将发布的新版显卡,其GPU性能,又要提升一大截。而在今天的演讲中,黄仁勋发布了英伟达RTX 50系列显卡。按英伟达的说法,RTX 5090整体性能是上一代RTX 4090的两倍。
由此,也有些声音担忧,在美国对华断供高端芯片的背景下,无法获得最高性能GPU用于训练的中国人工智能行业,与美国的差距是否会被进一步拉大。
人工智能领域,“算力焦虑”一直是种流行的叙事。作为主导全球的GPU企业,英伟达H100GPU数量一度成为了衡量大模型公司算力的指标,黄仁勋曾言:“英伟达是AI世界的引擎”,在他的叙事下,英伟达的硬件是发展人工智能大模型的决定性产品。
不过,谭主跟在现场的朋友聊了聊,他表示:
算力和人工智能大模型已经不再是现场多数企业最关心的问题。相比之下,如何将人工智能落地应用是2024年很明显的一个重点,在这方面,很多时候并不需要最高性能的GPU芯片。
相比之下,黄仁勋却显得没有那么“淡定”,在演讲中渲染英伟达“Blackwell架构芯片是人类历史上最大的单芯片”“前所未有的规模”的同时,却也对其消费级的产品采取了性能不变,但降价至三分之一的策略。
这跟此前舆论场认为英伟达产品将继续涨价的预期,形成了反差。显然,在主导地位遭遇越来越多挑战的情况下,英伟达也开始考虑多找“几条腿”走路。
实际上,全球几家还在全力投入人工智能大模型研发的头部企业,也正在掀起一股“去英伟达”的趋势。
诸如Open AI、苹果公司等都开始自研芯片和生态系统,支撑自身的大模型训练。
而这股趋势更重要的意义在于,英伟达营销人工智能“算力为王”的认知,已经被人工智能行业的新动向打破了。
除了自研AI芯片,Open AI等全球头部的人工智能公司,都在更多地聚焦大模型本身的设计优化。
模型训练层面,Mistral AI公司公开将混合专家模型引入大模型训练,用许多个特定领域的“小专家”配合几个“通用专家”,先决定问题类型,再用少数适合的专家处理不同类型的问题;
以DPO、LoRA为代表的高效微调方法,将原本需要高算力和复杂调优算法的模型对齐过程进行了化简,大幅度降低了模型对齐复杂度。
在这样的趋势下,国产大模型也逐渐明确了自己的发展方向。
2024年,国产大模型突飞猛进,不乏通过底层优化,实现用2048块GPU,接近头部公司数万块GPU训练才具备的大模型性能的案例。
在全球最大的大模型和数据集社区Hugging Face推出的开源大模型排行榜单上,从去年6月开始,中国国产开源大模型曾一度第一名,到年末,这个纪录又被新的国产开源大模型刷新,身位已经稳定在领先行列。
业内人士跟谭主分析:
之所以能做到这一点,是因为国产大模型主要进行了三个方面的创新:底层大模型数据结构的创新,训练过程的创新,以及数据准备有创新。
中国工业互联网研究院的最新数据显示,Deepseek V3通过采用混合精度方法,有效平衡训练精度和效率,结合混合专家模型架构,大模型训练成本降低至500万美元,仅为同性能模型的5%~10%,其性能上却跟GPT-4o以及Claude-3.5-Sonnet,相差无几。而目前,国内类似的大模型成本、训练时长都已经大幅下降。
这种新的模型训练方法,不仅大幅度降低了大模型行业的门槛,还推动了全球大模型的降价潮。而大模型的降价,对于人工智能技术的应用和转化有着革命性的意义。
行业人士告诉谭主:
在当前全球人工智能大模型的竞争中,算力虽然重要,但从来不是决定性因素。只有跟软件、应用场景结合起来,才能真正成为赋能行业转型、提高经济效率的引擎。
相比之下,目前部分人工智能项目存在“假智能”的问题——靠大量数据叠加出来答案,缺乏真正的创造力和想象力。
这与当前发展道路的“唯算力论”有关。现在市场上的许多AI,说白了就是用户告诉它怎么改,它一步步按要求调整,最终生成一个看上去“对”的答案,但它本身缺少主动思考或提出创新解决方案的能力。
虽然一些前沿大模型探索了“思维链”,试图让大模型长时间思考模拟人类的思维推导,在一些问题上已经有一定效果,但如何实现“通用人工智能”仍然有较大障碍。
更大的问题是,这种只靠算力的方式,迟早会碰到天花板。
行业人士跟谭主分析:
拿美国当前的大模型来说,他们的模型已经读完了几乎所有的英文书籍。可是,接下来怎么办?这就是人工智能大模型的发展瓶颈。由于世界上没有更多的新书可以喂进去,那AI只能让自己写书,但这种“自己生成自己喂”的方式,其实并没有真正突破。这就好比饿了没东西吃,只能“自给自足”,显然不长久。
要突破这个瓶颈,就不能再光盯着算力和数据,而是要回到大模型的技术本质,去解决更关键的方向性问题。就像一个不算聪明但记性好的同学,读了一万本书以后,问到的问题只要书里有答案,他就能直接告诉你怎么解决。可如果书里没有,他就无从回答了。这正是现有大模型的局限。
也就是说,真正要把大模型做好,不只是加算力,而是让它“活”起来,这就需要操作系统、应用场景的发展协同,帮助它从归纳走向创新。
中国的国产大模型,显然正在运用这种高效、灵活的路径,找到更加“聪明”的人工智能发展方向。
人工智能,不是一场跑道和圈数划定的跑步比赛,而是一场向着未知的探险。中国企业选定的方向,不会轻易被各式的“焦虑”裹挟。
能者非他,能自树立不因循者是也。
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com