豆包大模型后来居上的B面

豆包大模型后来居上的B面
2024年08月18日 21:29 胡说成理

AI领域的竞争核心,已经从大模型的“有无之战”变成了“应用之战”。

在这个阶段里,比拼的不再是宏观概念,而是落地能力和商业化的进展,这无疑反映了这个行业的进步,以及智能时代带来的新行业机遇的兴起。

今天,火山引擎AI创新巡展走进厦门,在活动上介绍了豆包大模型的最新数据——日均 tokens 使用量突破5000亿,以及一系列模型升级和行业共创进展。

这意味着什么?对行业又有什么启示?

——导语

01

5000亿tokens的背后

日均使用量5000亿tokens,在目前的大模型赛道里,是一个非常显著的数量级,它代表着豆包大模型的使用量进入赛道相对领先的位置。

在自然语言处理领域,一个tokens通常是指文本中的最小单位,它可以是一个单词、一个标点符号或者一个子词单元。

换句话说,5000亿tokens/天的使用量意味着——豆包大模型每天都需要处理极其大量的数据,这至少相当于处理数百万篇长文章或数千万到数亿条社交媒体帖子的日均量。

如此高的使用量,也表明有许多企业和个人正在积极使用该模型进行各种任务,比如文本生成、聊天机器人、文档摘要、翻译、问答系统等。

5000亿tokens/日的背后,更是豆包大模型生态的红火和用户量、用户使用频率的高速增长——当前豆包大模型的平均每家企业客户的日均tokens使用量,较5月15日模型发布时,又增长了22倍。

而总tokens从1200亿到5000亿,总体相当于2个多月涨了400%。

这显示了,豆包大模型正成为国内头部大模型中,受到广泛欢迎且商业化前景可期的一个重量级选手。

做为一个相对而言略晚加入这个赛道的企业,获得如此强悍的数据,背后的支撑是什么?

02

用户在为豆包的强悍能力买单

顺便一提,豆包大模型的定价也是感人的,其大致的定价标准,是输入1000万个tokens,收费8元人民币,这在行业里也属于超高性价比。

火山引擎总裁谭待指出,给出更有性价比的收费,让更多的企业降低了试错成本,让许多犹豫的企业敢于尝试,从而最终迎来了更多企业的拥抱。

但是,大模型的收费和水电费不一样,后者是标品,所以价低者得;但大模型的用户考虑的更是综合的ROI,换言之,如果没有持续的创新,如果没有强悍的能力和赋能工具,如果不始终保持业界领先的水平,也是无法持续的留住客户的。

一位AI大咖有一句话说的很经典——大模型的每一次升级,可能都意味着有一个大模型企业的出局。

在笔者看来,豆包大模型迅速打开局面并保持比较强的竞争力,和两个要素比较有关,那分别就是更强模型和更易落地。

大模型就相当于汽车的发动机,如果一辆汽车的发动机不够强大,那么无论造型多优美、营销多丰富,也是无法吸引用户的。

事实上,豆包大模型可能是近期各类大模型榜单中,成绩最耀眼的大模型之一。

例如,智源研究院旗下的FlagEval大模型评测平台发布的最新评测榜单显示——在闭源大模型的“客观评测”中,豆包大模型以综合评分75.96分排名名列前茅,是得分最高的国产大模型。

评测成绩显示,豆包大模型的数学能力、知识运用、任务解决等多项能力在客观评测和主观评测中都有着出色表现。

这样的成绩,与豆包大模型拥有大模型的全栈技术和丰富的应用场景,从而能够实现高效率的端到端优化,关系密切。

大模型训练需要更强的算力支撑,火山引擎AI全栈云依托字节跳动的海量资源共池,支持多芯、多云架构,拥有超大规模算力,支持万卡集群组网、万亿参数MoE大模型,提供超高性能网络和存储,保障计算资源的稳定运行。

火山引擎还自研了mGPU容器共享方案,GPU利用率提升100%+,为生成式AI工作负载提供更高性价比的算力资源。

在企业的AI应用落地中,火山引擎AI全栈云还提供了一站式资源服务和全链路数据管理能力,从而助力企业高效、弹性的构建AI训练或推理业务,可以进一步加快企业实现AI应用落地。

你也许觉得这句描述有些空洞,但如果你像我一样在最近2个月密集拜访了一批初创期的大模型应用型企业,就会有完全不同的体感。

“严格意义上讲,我们现在还没有吃透大模型怎么在技术层面充分优化的问题,所以更多的精力是在解决‘怎么用好’,而不是“具体解决什么问题”,一家AI应用创业公司的负责人梵东告诉我:“我们最早觉得自己的创意很好,但在落地中发现,AI优质人才难求、技术水平也参差不齐,各大模型提供的支持也千差万别”。

“如果不降低学习、使用大模型的隐形成本,提升用户拥抱大模型的便利性,这个行业就谈不上进化和成熟”,同为AI创业者的李准这么说:“‘好用’是我们这些早期的AI应用企业很看重要的一个方面”。

而豆包大模型尽可能的做到了从用户需求出发,在提供强大性能的同时,尽可能的解决“好用易用”的问题。

例如,豆包大模型迅速实现了家族化、系列化,既有强大的通用模型,也有细分的垂类模型如文生图等,让用户的选择变得更加精准。

另一个各大模型企业竞争激烈的焦点,就是主打低代码、低门槛,“让用户自己学会应用”。

“目前的用户对低代码,对于可以‘拿来主义’各种模块商店有刚需,所以火山就做了针对性的开发”,一位已经使用了一段时间的豆包大模型的业内人士分享说:“例如扣子专业版,各种Bot商店、工作流商店、插件商店,让用户以最低成本获得生态里沉淀下来的优质资源,同时他们的创新也会再次沉积在这个生态里,使之不断生长。”

更为重要的是,豆包还拥有火山方舟这样的一站式大模型服务平台,“这就相当于使用大模型的操作系统,几乎无所不包”。

火山方舟平台,不仅提供模型精调、推理、评测等全方位功能与服务,还提供丰富的插件生态和AI原生应用开发服务,并通过安全可信的基础设施,专业的算法技术服务,实现全方位保障企业级AI应用落地。

“国内大模型具有如此全面的开发服务平台的,并不多见”,李准表示:“这就跟开手动挡的车与开有高级辅助驾驶功能的汽车一样,体验是有代差的。这也是豆包大模型的应用企业的使用量激增的一个要素,“只有底层跑通了,用户才有更多的精力集中于应用创新,才会有使用量的激增”。

另一个重要的要素,就不得不提到火山引擎独有的行业优势——字节同款。

强大、好用与易用,前提是都有企业在不断的用,只有用了才有优化的空间。

而豆包的一个突出的特点就是,它是在真实业务中锤炼出来的。

简单说,豆包大模型,向内看,有字节跳动内部50+真实业务场景的实践验证;向外看,有30+行业的外部企业深度参与共创,它们的使用量达到每日数千亿tokens,这是打磨好模型的前提。

举一个小例子,豆包大模型有成本优势,背后的原因是,火山引擎可提供充沛的GPU算力资源池,有丰富的内外客户应用,可以通过潮汐、混部等方式,以技术手段实现资源的高利用率和极致降低成本。

例如,针对AI工程方面,对底层的异构算力,基于实际需求,豆包大模型实现了混合调度和分布式推理等优化,这些都能够对推理成本实现大幅度降低。

这是一种很有技术含量的降本增效,是一种可以持续的优化,也是大模型的生态魅力所在。

03

大模型下一步“卷”向何方?

一个不争的事实是,国内大模型赛道很卷,但如何突破卷的现状,火山引擎有自己的答案。

答案是卷应用、卷落地,只有在真实场景中创造真实价值的大模型才能生存下去,这是这个行业的竞争焦点,也很残酷,但是是行业铁律。

而火山引擎的应用现在已经实现了多面开花,豆包大模型主要应用的行业已经涵盖了汽车、金融、游戏、互联网、智能终端、消费、医疗健康、传媒、教育科研等。

在传媒行业的具体实践中,内容生成是目前的一个竞争焦点,豆包以剪映+智能创作云为切入点,以大模型作为强抓手,用数据产品构建基础设施,为各大传统媒体、新媒体及融媒体中心等提供了整合智能解决方案。

这使得豆包可以帮助用户通过新闻小助手作为抓手,结合豆包为内容生产特别是传媒行业的内容生产提供的精悍好用的垂直模型,帮助用户在这一赛道处于领先地位。

在文旅行业,豆包和生态企业携手探索伴游大模型,通过大模型帮助旅游人士制作省心游玩攻略和行程规划,通过智能修图和短片剪辑能力帮助人们降低摄影和修图的门槛,记录旅程中的美好。

在为高等院校、科研机构等服务中,豆包大模型一方面以HiAgent平台为核心,打造校级AI中台,建设教育信息及学科类AI应用,服务于教务服务、教学实训、高校科研等场景;另一方面,实现了科研文献的智能检索和摘要生成,加快信息获取,而研究数据的自动化分析,则进一步提高了研究效率。

HiAgent是火山引擎旗下的企业专属AI应用创新平台,高度适配企业个性化需求,让业务人员可以轻松构建智能体,让业务创新不受生产技能的限制。在具体业务场景的应用中,HiAgent能够支持企业业务人员像搭积木一样低代码搭建智能体,提升应用创新速度,并支持混合部署,帮助企业打通拥抱大模型的最后一公里。

而对这一切,火山引擎总裁谭待有个精彩的点评,他说:“用户不会莫名其妙地增长,只有最好的模型才有最大的使用量,这是因果互相促进的动态过程。都没有人用的东西怎么可能是好东西呢?特别是技术,用的人越多,技术就会越好,这是整个技术领域的共识”。

如果说,火山引擎在厦门的活动焦点,是两个月内大模型使用量从1200亿/tokens到5000亿tokens/日的400%的成长,那么,在即将到来的上海站活动中,还将带来什么信息,值得我们拭目以待。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部