全球最强开源AI大模型诞生:中国研发,成本只有Deepseek的30%

全球最强开源AI大模型诞生:中国研发,成本只有Deepseek的30%
2025年04月30日 12:09 科技创新plus

众所周知, 自从OpenAI的ChatGPT发布之后,全球就进入了千模大战。

而自从Deeseek推出之后,这些大模型们,又掀起了开源高潮,因为大家发现,开源的大模型,更能够得到大家的使用。

但与此同时,在AI大模型方面,也有两个方向,一个就是OpenAI们,那就是大力出奇迹,狂堆GPU卡,用算力来堆出高性能AI。

毕竟像OpenAI、马斯克的AI们,它们又有钱,又能买到最强的GPU卡,没必要没苦硬吃,堆显卡就是了。

而另外一个方向,则是像Deepseek一样,钱不多,且显卡也受限,只有“四两拨千斤”,用最少的显卡,办最大的事,做出最强的性能。

所以Deepseek打的华尔街是溃不成军,因为用的显卡少,性能却最强。

但近日,又产一国产大模型,甩出了王炸,因为它的成本更低,但性能却超过了OpenAI-o1模型,也超过了Deepseek-R1等,登顶全球第一。

这个模型,就是阿里通义千问大模型 Qwen3(简称千问 3),并且这个也是开源模型。

千问3,也是全球首个“混合推理模型”,将“快思考”与“慢思考”这两种模式集成于同一个模型之中,根据不同的需求,进行灵活处理,比如简单问题,就快思考,复杂问题就“深度思考”或者说“慢思考”。

不仅如此,最让大家兴奋的是,千问 3 在性能和成本控制上实现了惊人的跨越 ,他只需要 DeepSeek-R1 三分之一的参数规模,也就是说成本低了三分之二,性能却实现了超越。

具体的来讲,只需要4张H20这样的显卡,就能够部署全功能的千问3模型了,显存占用量,也仅为同类模型的三分之一,部署成本仅为满血版 DeepSeek-R1 的 25% 至 35%,降低了门槛。

自从Deepseek推出,国内就进行了一大波的国产GPU替代,因为大家发现不需要英伟达最强大的显卡,也可以部署强大的模型,一度打破了OpenAI的神话,也打破了英伟达的算力泡沫。

如果千问3来袭,估计国产GPU替代会再次加速了,因为既然不需要顶级的AI算力,国产GPU当然就能够顶上了,所以国产GPU肯定是又迎来了大机会。

17条评论|25人参与网友评论
最热评论
子夜月瀑江苏盐城
这么牛的东西出来,居然没啥人惊呼?直接就登顶了?
4月30日14:59举报3回复
这技术路线一变,感觉整个AI行业生态都要重塑了不光是模型开发成本低了,应用范围也会扩大很多
4月30日14:37举报3回复
叶问3这玩意儿,确实挺好使的
4月30日14:57举报2回复
最新评论
真的假的啊?
5月2日09:27举报回复
用户5537706446浙江衢州
我写文案用了N个Al,并作比较,还是通义比较好用!
4月30日23:34举报回复
用户5439861230广东佛山
挖来Deepseek的成员就开始有成果了?用了多少张显卡?云服务器是在哪个国家部署的?
4月30日16:09举报回复

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部