百度企业级AI重磅升级,追赶Sora差距有多大?

百度企业级AI重磅升级,追赶Sora差距有多大?
2024年04月09日 13:19 另镜DMS

作者|晨曦

编辑|陈秋

另镜(ID:DMS-012)

当下,全球科技正经历前所未有的技术革命。今年2月,Open AI又震撼发布了全新的AI视频生成模型Sora,视频可达60秒,视频精细程度让外界震惊,这也意味着AGI的落地正在快速颠覆认知,将推动国内外像谷歌、META、苹果、华为、阿里和百度等科技巨头企业加速AI大模型产业化落地。

高质量视频目前还处于高成本瓶颈阶段,生成10秒钟的流畅视频可能最少需要消耗高达数十甚至上百美元的成本,短期内大制作成本的内容更可能接受市场现状。

4月3日凌晨,OpenAI发布了首个由Sora制作的MV——《Worldweight》,随着Sora模型的发展,会不断衍生出垂直模型,这些模型将会逐渐涌现并开始影响像虚拟视频、短视频、广告、娱乐以及互动式电影、游戏等行业。

2024年,将是加速融入商业化应用的一年。在技术方面,外界预计国内企业与Sora可能会存在半年的代差,背后不仅需要强大资金和技术人才支撑,还依赖高品质的数据、良好的硬件基建,包括流程优化和完善的模型训练。

从模型到应用中间还需要诸多技术桥梁,诸如SFT、RAG、LangChain、Agent等技术,如何与大模型有机组合达成最优解也是目前企业面临的难题。对此,百度也在不断加速的提升技术支撑,近日,百度大动作不断。3月21日,百度智能云千帆大模型平台就一口气发布了5款新模型,包括3个轻量级大模型、2个垂直场景大模型,并且千帆ModelBuilder以千帆AppBuilder也同步升级。

与此同时,百度AI大模型正全面拥抱商业化。3月27日,百度又面向企业营销、对客服务、知识管理、数据洞察、代码编程等多个企业通用场景,将大模型能力全面融入7大产品,包含百度智能云曦灵数字人平台、百度智能云客悦智能客服平台、百度Comate代码助手等,不仅提供公有云、私有云两大使用方式,还为企业打包提供“应用产品全家桶”,全面助力企业业务增长、提升运营效能。

北京智源人工智能研究院副院长林咏华表示,AI大模型的落地最大问题其实是最后一公里,也就是大模型的质量,质量到底能不能达到产业和工业的要求,小模型是单一任务,可以对单一任务不断优化,但大模型,我们希望满足多种任务,但本身就很难,只能依靠基础模型去修补。

林咏华称,在小模型时代,我们可以下载开源算法,用自己的服务器,修改算法,重新训练两天可能就出来结果了,但大模型要比小模型更具挑战,成因很难分析,进行算法修复和重新训练的投入极高。算法、数据和过程都可能导致问题的成因,但每一个“debug”都是高昂的实验过程。

原生应用产品需求大爆发

Distinct Mirror

去年四季度,百度智能云营收达84亿元,其中大模型为云业务带来约6.6亿元的增量收入,预计百度今年生成式AI和基础模型的增量收入达数十亿元,主要来源将包括广告业务和人工智能云服务的销售。

“百度将继续坚定对生成式AI和基础模型的投入,为创造新增长引擎奠定基础。”在百度创始人、董事长兼首席执行李彦宏看来,在视觉基础模型领域,显著的应用和潜在市场是自动驾驶,百度的核心战略在于应用强大的模型来解决现实世界问题。

生成式人工智能和大语言模型为产业发展带来新的机会,在变现、提高用户参与度和体验感等多方面带来前所未有的提升,同时也掀起新一轮商业竞赛。

近日,苹果发布为Siri量身定制的AI模型ReALM,该模型基于Google开源模型微调(FLAN-T5),具有4个尺寸。其中,最小模型以8000万参数追平万亿参数的GPT4。ReALM的目标是解决自然语言处理中的指代不明,让Siri能听懂人话,从而更好地执行命令。其原理是将当前屏幕上可交互对象的视觉属性编码成文本,整合用户提问后,作为上下文一起处理。

过去一年,文心一言使用量与文心大模型API调用量均保持高速增长。据悉,三星在其Galaxy S24 5G手机中已搭载文心一言的API,荣耀自研操作系统MagicOS 8.0、汽车之家网站也使用了文心一言API。

据悉,百度文库上线了配备了类Copilot的Al助手,额外吸引了18%的新付费用户。百度智能云副总裁喻友平在近期接受采访时表示,像百度大模型Comate、GBI以及超级助理,这些是比较偏原生应用产品需求爆发增速更快。

但像智能客服、知识管理这类传统领域进行大模型升级,相对来说有增速,但没有那么强劲,是一种叠加性的升级,没有那么陡峭。

在去年10月,百度世界 2023 大会上,李彦宏推出了中国首个生成式商业智能产品——GBI。据官方介绍,GBI集成了自然语言交互、跨数据库分析和专业知识学习三大能力,可以将商业分析师通常需要十几天才能完成的数据分析工作缩短至几分钟。

最近,百度智能云还发布了Baidu Comate2.0,并面向个人开发者免费使用。Comate作为全栈智能代码助手,已覆盖100多种主流开发语言、支持常用IDE。本次的2.0版本能力全面增强,模型更强大,更贴合软件研发现场。

大模型产业落地不能冒进

Distinct Mirror

在百度智能云副总裁喻友平看来,2024年注定是大模型应用的元年,这个话题已是业界焦点。其实真要把大模型用好,还真不那么容易。如何把大模型用到企业中去,真正去带来企业业务增长和提高效能才是关键。

3月30日,OpenAI在官网上公开了其最新的研究成果语音模型——“Voice Engine”。这项技术可通过简短的15秒音频样本和文本输入,生成与原始说话者极为相似的自然语音。

在公告中,OpenAI给出了Voice Engine的一些早期应用场景,如通过自然,富有情感的声音辅助儿童阅读、翻译视频和播客等内容、改善偏远地区的社区服务、帮助患有突发性或退化性言语病症的病人恢复声音等。

这也意味着,以OpenAI为代表的大模型生成技术,有望在语音和视频等多个领域提供个性化和富有情感的服务,不断打破虚拟和现实的模糊边界,这也代表人工智能技术正在发生质的突破,全面进入到各个方面。

3月28日,在博鳌亚洲论坛2024年年会上,百度执行副总裁、百度智能云事业群总裁沈抖表示,大模型的产业落地,既不能冒进,也不能坐在那里等“爆款”,而应该先把大模型应用到企业研-产-供-销-服的各个环节里面去,实现降本增效。

沈抖称,算力是一个永恒的话题,随着人工智能的发展,对算力的需求肯定会持续扩张。目前国内算力还是紧张的,但是相比去年理性很多。去年其实是存在着恐慌式囤卡现象,为了做大模型,很多人疯狂采购,今年大家都回到了理性消费的阶段。卡的资源还是紧张,但是相对于去年,有所缓和。

大模型真的规模化用起来之后,算力需求会很大,甚至不只是算力,将来电力需求也会很大。所以,现在国内外的科技企业都在持续推动芯片、算力的迭代和进步。

谈及异构算力,沈抖认为,从技术上是可以突破的,也会变成一个趋势。百度已实现GPU卡和几款国产芯片共同训练,不同卡放在同一个计算集群里,去训练同一个模型,将来卡的多元化、异构化是一个必然。

过去一年,生成式AI已经被企业真正用起来。从百度的数据来看,百度文心一言C端用户已经超过了1亿;而在B端,用百度智能云千帆大模型平台开发应用的企业已经超过了8万,开发出了16万余种应用。

未来大模型竞争会难免遇到同质化问题,喻友平认为,大模型并不能简单的替代创意人才,需要人和AI融合。大模型最终应用落地跟竞争一定是非常激烈的。但这个要看谁做的快、更能够接地气、更能够把技术、场景、需求做非常好的连接。从技术的重心慢慢会转向业务、产品以及应用,这是一个必然的趋势。

喻友平称,百度做的这些应用,其实是一些应用样板间,还是让更多的伙伴开发者知道大模型已经接近应用。相信即使我们最近发布的七个方向,还有太多细分的,每个细分真的深入下去的时候,远远比我们今天讲的还要更加深。

长文本、轻量级和多模态成为当下AI迭代热点方向,而在李彦宏看来,AI原生应用才是大模型的真正价值所在。一直以来,百度在快速投入、提升基础大模型能力同时,更加强调重构、重做所有产品,促进繁荣的AI原生应用生态发展,希望有更多开发者、普通人加入到AI生态中,更便捷地开发和使用AI原生应用。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部