发放1亿元代金券!商汤:性价比是大模型应用生死线

发放1亿元代金券!商汤:性价比是大模型应用生死线
2025年04月15日 11:08 IT时报

商汤发放1亿元算力代金券!4月10日,在2025商汤技术交流日上,最懂大模型、极致性价比成为商汤AI基础设施服务的亮点。此次,新升级的商汤大装置SenseCore 2.0发布了面向具身智能、AIGC、AI4S以及传统企业智能化转型的四大行业解决方案,最为重磅的是推出1亿元代金券计划。

“商汤拥有国内最早建设、单一体量最大的智算中心,但商汤想做的还是最懂模型、最懂用户的AI基础大模型”。商汤科技联合创始人、大装置事业群总裁杨帆表示,当下,大模型产业正展现出三大全新趋势:随着开源模型和工具逐渐成为主流,AI基础设施需要与开源产品进行深度集成与整合;性价比已成为大模型应用的生死线,需要持续推动训练和推理成本的降低;多模态技术推动新一代智能终端与应用场景的爆发,企业亟需获得从产品到场景的端到端全链路支持。

多模态推理成本与大语言模型成本持平

性价比是大模型应用的生死线。目前AI产业发展面临多重成本压力:供应链成本变化快导致算力供需波动大,国产芯片亦存在产能有限、种类繁多以及利用率较低等挑战;模型参数量的指数级增长,使训练成本持续增加;推理成本大幅下降带动需求爆发增长,导致总算力消耗进一步加剧。

也就是说,谁能更快地突破成本限制,谁就能破局。通过异构算力混合计算提升国产芯片利用率是一条破局之道。

在国产芯片方面,商汤大装置异构训练效率可达同构训练的95%。杨帆提到了为某头部客户提供大规模异构混训的案例,通过异构算力调度、自动并行策略、跨芯通信、自动容错恢复等核心技术,在5000张国产GPU集群上实现1个月稳定异构混训,算力利用率达到80%,成功突破单一GPU限制。

此外,商汤大装置实现了多模态大模型推理成本与大语言模型持平。同时,在线推理性能较头部厂商提升15%,离线推理Prefill阶段实现提速5倍、Decode阶段提速3.5倍。在多模态推理应用场景即将爆发之时,极致性价比让产业多了一种选择。

从零成本到1亿元代金券

DeepSeek掀起了AI圈的巨浪,开源模型能力已经逼近闭源模型,这带动了企业应用需求的快速涌现。

商汤大装置快速拥抱开源这一主流趋势,提供零成本迁移、零门槛使用、零开发部署”的一站式模型服务。其中,极客创业团队可通过标准化的 k8s API直接对接商汤大装置,完成应用组件、日志、监控等无缝迁移并实现弹性扩展;应用企业可在模型广场中直接选择DeepSeek等开源主流模型,一键部署和微调,实现模型托管与零门槛使用;互联网平台企业则可借助 JuiceFS 缓存和 Volcano 优化等技术,提升开源方案在生产环境的稳定性等。

值得一提的是,商汤大手笔押注具身智能、AIGC等多行业,投入1亿元专项代金券,通过多维度的精准扶持,为企业提供从专家咨询到模型训练、推理验证的全流程AI服务支持,打造“高效率、低成本、端到端”的一站式赋能方案,加速大模型商业化落地。

多模态落地的最后一公里

多模态大模型的突破,正快速激活各类新场景、新模式,比如席卷全球的GPT-4o“吉卜力风”、形态各异的AI机器人等,激发行业大量跨模态能力需求。打通从产品到多模态场景的端到端行业解决方案,是AI 2.0时代新兴行业加速技术落地,传统行业实现数智升级的“快车道”。

“从去年开始,具身智能客户的需求增长较多。”杨帆在接受《IT时报》等媒体采访时提到,“大多数客户提出的需求是我们有这些数据,用什么开源模型可以达到什么需求,但前提是要达到什么性价比,所以给客户再好的AI基础设施都没法用,而是要提供完整的解决方案。”

针对具身智能数据生产需求,商汤提供“仿真+真机”双通道,云上通过全栈工具链实现仿真数据生成、模型验证,并依托商汤全国智算布局支持跨地域数据采集汇聚,实现分钟级同步,结合智能分级存储有效控制成本。会上,商汤与松应科技签署战略合作协议,双方将在数据仿真、研发管线、客户服务层面展开合作。

此次,商汤大装置面向具身智能、AIGC、AI4S以及传统企业智能化转型推出四大行业解决方案,针对不同行业客户提供从场景定义到业务落地的全链路赋能,真正解决智能化落地最后一公里难题。

0条评论|0人参与网友评论
最热评论

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部