字节大模型大降价,百度、阿里能否抗住?

字节大模型大降价,百度、阿里能否抗住?
2024年05月19日 22:30 另镜DMS

27:04

作者|谢涵

编辑|陈秋

运营|陈小妍

另镜(ID:DMS-012)

去年3月在OpenAI推出GPT-4一天后,国内众多头部企业华为、百度、阿里、腾讯、科大讯飞、商汤等科技企业纷纷快速布局AI大模型赛道,而备受外界期待的字节跳动AI大模型业务却迟迟未向外界公布具体战略。

时隔一年多,字节跳动终于对外宣布,5月15日上午,字节跳动旗下云服务平台火山引擎在北京举办了声势浩大的发布会,火山引擎总裁谭待在发布会上正式宣布,字节跳动自研豆包大模型对外提供服务。

据火山引擎总裁谭待介绍,经过一年时间的迭代和市场验证,豆包大模型正成为国内使用量最大、应用场景最丰富的大模型之一,目前日均处理1200亿Tokens文本,生成3000万张图片。

根据在发布会披露数据,豆包用户规模在快速增长,月活用户数已达2600万,被创建智能体达800多万个。

在定价方面,对比国内外目前最新的32K主力模型,GPT4价格约为0.42元/千Tokens,百度文心一言和阿里最新的通义千问2.5价格均接近0.12元/千Tokens,而豆包通用模型pro-32k版模型推理输入价格仅为0.0008元/千Tokens,比行业低99.3%。

在长文本方面,目前阿里和百度还没有跟进长文本128k,GPT4-Turbo价格约为7分钱/千Tokens,豆包通用模型Pro-128K模型定价为0.005元/千Tokens,比行业低95.8%。

这是什么概念?《三国演义》很多人都读过,一共有75万字,根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,意味着只需要1块钱就能处理3本《三国演义》的文字量。

谈及低价策略,在发布会当天下午的群访中,火山引擎总裁谭待向另镜等媒体解释,“我们做这个定价,是我们对技术还是有信心的,这是最关键的,而不是我们拿亏损来做这件事情,亏损是接受不了的。”

我们在技术上有优化成本的手段,比如分布式推理、混合调度等,未来能持续以此价格服务行业,亏损换收入不可持续,我们不会这么做。能力最强的主力模型定价都比行业低,简单来说,是因为我们能做,也需要这么做。

做应用一定要生态繁荣,市场面临非常多的不确定性,试错成本要降得非常低,才能够让大家广泛地用起来,不管是大的企业还是说开发的个人,都能用起来,所以市场的呼声就是说我们需要更低成本的核心。

谭待称,随着大模型技术的不断发展,企业与开发者都在积极投身大模型,各类场景蓄势待发。今年大模型能力提升,应用是很重要的环节,我们判断,在未来一年,大模型将在越来越多的企业场景从POC阶段走到真实的生产系统。

一年前,字节跳动就完成了自主研发大模型,豆包大模型原名云雀,是国内首批通过算法备案的大模型之一,在内部亲切的称呼它为豆包。

在过去一年里,字节内部50多个业务已经大量使用豆包进行AI创新,包括抖音、头条、番茄小说等多个产品。同时火山引擎也以邀测的方式,和不同行业的头部客户对基于豆包大模型进行深度共创,包括手机、汽车、金融、消费、互娱等等领域。

打响价格战

如何快速抢占国内市场,谭待在发布会首次对外阐述了字节跳动在大模型的战略布局。

一是,此次节跳动自研豆包大模型,提供的是一个有多模态能力的模型家族,目前主要包括通用模型pro、通用模型lite、语音识别模型、语音合成模型、文生图模型等九款模型。其中通用大模型支持128k长文本,也包含轻量级大模型以及当下非常火的文生图等垂类大模型。由此可见,虽然对外宣布比较晚,但低价策略和矩阵打法足以撼动行业格局。

二是,在市场定位方面,字节跳动抛出一张王炸牌,那就是卷起行业价格战,价格定位方面不只比国外GPT4价格低很多,比百度文心一言和阿里通义千问都低很多。

“大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本。豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%,”谭待表示,大模型从以分计价到以厘计价,将助力企业以更低成本加速业务创新。

谭待认为,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。豆包大模型的定价大幅低于行业价格:以豆包通用模型pro-32k版为例,模型推理输入价格仅为0.0008元/千Tokens。而市面上同规格模型的定价一般为0.12元/千Tokens,是豆包模型价格的150倍。

三是,依托内部50多个业务线和前期大模型进行深度共创,字节大模型在从早期预训练战场中,快速转战场景融合和商业化阶段。

发布会当天,火山引擎联合中国电动汽车百人会,与吉利汽车、长城汽车、捷途汽车、赛力斯、智己汽车等20余家厂商,宣布成立汽车大模型生态联盟,致力于为消费者带来汽车全场景AI新体验。

同时,火山引擎与OPPO、vivo、荣耀、小米、三星、华硕宣布成立智能终端大模型联盟。OPPO小布助手、荣耀智慧办公智能助手、小米“小爱同学”,以及华硕笔记本电脑的豆叮AI助手等应用,均已接入火山引擎的大模型服务

背后技术路线

目前,豆包大模型已经在智能终端、汽车、金融、社交互娱、在线教育、电商零售、科研、企业服务和法律行业九大领域实践。

不同行业的数据和垂类模型有很大的区别,背后大模型的技术难度可想而知。

火山引擎副总裁、字节跳动开源委员会负责人张鑫指出,大模型的出现,让AI从“快思考”进入到“慢思考”阶段,并带来了使用方式从图形界面到自然语言,开发方式从写代码到写提示词/图,研发范式从“碎片化”到“大一统”,效率体验从Copilot到Agent的四大变革。

然而,面对变革所带来的新发展机遇,企业在数据驱动的大模型商业应用落地时,却面临着交互不擅长深度推理、知识不可溯源、实时更新代价高等挑战。

面对上述新的挑战,火山引擎提出了四大破局方案。

张鑫分享表示,首先是做好提示词工程最佳实践,掌握这一最高杠杆的技能;其次是从知识库构建和检索两大角度入手,建设企业大脑,做好检索增强生成(RAG);

再次是依托知识图谱能力对大模型进行增强,实现知识与数据的双轮驱动;最后是通过prompt优化、知识增强、调用插件、循环迭代等手段,完善任务拆解的大模型工程化。

张鑫指出,火山引擎基于四大破局方案,通过沉淀最佳实践,推出一站式大模型服务平台火山方舟,以及面向业务人员的企业专属AI应用创新平台HiAgent,全面助力企业实现大模型破局的标准化、敏捷化与自动化。

谭待表示,火山引擎致力于成为AI时代最开放和领先的云服务平台。全新升级的火山方舟2.0不仅提供了抖音、今日头条的搜索和内容插件等丰富的生态资源,还有着充沛的算力资源和极致弹性,保障客户的业务稳定。

火山引擎算法团队也将为豆包大模型的企业客户提供支持,分享模型调优和数据处理的实践经验,与企业客户共同探索AI转型的智能未来。

2023年6月,大模型服务平台火山方舟正式发布。平台提供模型精调、推理、评测等全方位功能与服务,提供丰富的插件生态和AI应用开发服务,并通过安全可信方案,专业的算法技术服务,全方位保障企业级Al应用落地。

火山方舟2.0,大幅提升模型效果、核心插件、系统性能及平台体验,帮助企业推进大模型的价值创造。

在此次发布会,字节跳动还发布新一代AI应用搭建平台扣子,连接大模型和用户场景的扣子,无论用户是否有编程基础,都可以在扣子上快速搭建基于大模型的各类Bot,并将Bot发布到各个社交平台、通讯软件或部署到网站等其他渠道。

目前,扣子专业版已集成在火山引擎的大模型服务平台“火山方舟”上,提供企业级SLA和高级特性。招商银行、海底捞火锅、超级猩猩、猎聘等企业,已在扣子上搭建了智能体。

除此之外,本次发布会上,火山方舟还重点提到了,2.0产品对插件生态的进一步丰富,更新后的平台将会上线三个凝结了字节跳动内部强项能力的插件——联网插件、内容插件以及RAG知识库插件。

总结

近期,海外大模型密集迭代,5月14日凌晨,OpenAI在首次「春季新品发布会」上,发布了最新一代旗舰大模型GPT-4o,与之前只能打文字相比,变得更智能,可横跨语音、文本和视觉,超低时延的语音助手和翻译,并且可以感知人类情绪。

而更让业界震惊的是,它居然免费,付费则可以获得五倍的使用容量。在价格方面,GPT-4o的价格是GPT-4-turbo的一半,速度却是GPT-4-turbo的两倍,速率限制也高5倍。

时隔仅一天,5月15日凌晨,谷歌召开2024 I / O开发者大会,堪称对OpenAI全面反击,其中,包括Gemini 1.5 Pro正式开放给订阅了Geminni Advance的用户,上下文窗口拓展到200万token,推出开源模型Gemma2.0、文生图像模型Imagen3、视频生成对标Sora模型Veo等。

而在国内更是硝烟四起,各大互联网科技企业都在加速迭代大模型版本,同时寻求商业化变现之路。字节发布自研豆包大模型,这也意味着国内大模型竞争初步竞争格局已基本形成。

豆包大模型在设计上更倾向拟人化、离用户近和个性化,一大特点是能直接从抖音里搜到短视频解答比较具象的问题。

而未来,个性化设计、系统承载力、模型训练能力、多模态效果和推理成本会成为每个企业需要不断跨越难点。

目前国内大模型市场环境还处于初步阶段,都在极力拓展外部客户,很多客户都还处于同时与多家企业合作和接触阶段,在早期,互联网公司由于具有技术的积累和流量生态的优势,会更容易被外界关注,但最终哪家能领跑商业化变现之路,还是需要真正能解决客户需求的能力。

2024年国内大模型逐渐转变为针对产业落地的行业大模型比拼,在模型框架、开发者工具、基础大模型、部署和推理工具等维度上会呈现开源和闭源共存。随着手机和汽车厂商陆续发布支持端侧AI推理的芯片或模型,AI落地端侧也成为重要布局。

值得注意的是,2月份,抖音前CEO张楠从抖音转岗剪映,着手推出一个新的AI生图和视频产品。

5月初,张楠交出了自己转岗后的首份作业——支持图片和视频生成的即梦AI,但目前官网显示仍处于内测阶段。初阶版视频生成能力,非会员仅支持生成3秒内容。

谭待在此次发布会上坦言,企业要真正做好大模型的落地并不是一件容易的事情,有三个非常关键的挑战:第一,是模型效果,必须要有好的基础大模型才能够解决复杂的问题。第二是推理的成本,只有非常非常低的成本服务,才能够让大模型广泛的应用起来。第三是落地难度,需要有更多的工具、更多的插件、更多的平台和应用,来帮助企业在更多的场景里面非常容易地去做好大模型场景落地。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部