进击的AI大模型,场景化落地才是解决烧钱焦虑的关键

进击的AI大模型,场景化落地才是解决烧钱焦虑的关键
2023年11月17日 19:00 ChinaByte比特网

2023年是大模型落地的关键年,在这一年,AIGC技术的快速发展和各种大模型的涌现,打开智能时代的新篇章。《中国人工智能大模型地图研究报告》显示,截至2023年5月底,国内10亿级参数规模以上基础大模型至少已发布79个。与此同时,据自媒体“AI to Be”的不完全统计,截至2023年11月7日,国产大模型已达189+。可以说,中国大模型数量已进入第一梯队。

在大模型蓬勃发展的同时,中国大模型产业化应用出现通用类、专业类并行的发展路径,文心一言、紫东太初等中国一批通用化大模型正在快速发展,而打造跨行业通用化人工智能能力的平台正在从办公、生活、娱乐向医疗、工业、教育等加速渗透。在笔者看来,无论是通用类还是专业类,大模型正在朝着行业化、场景化的方向演进。这是因为大模型需要投入大语言模型基础设施、训练和研发人才成本,行业化、场景化是解决落地,缓解烧钱焦虑的关键所在。

依靠烧钱入局的大模型何时才能收支平衡?

今年8月份,印度媒体Analytics India Magazine的一份报告引起大家的注意,它在报告中表示,人工智能公司OpenAI可能在2024年底面临破产的风险。之所以面临破产的风险,是因为,OpenAI每天仅维持其人工智能服务ChatGPT的运行就需要花费约70万美元(人民币:506.6万)。

尽管OpenAI试图通过GPT-3.5和GPT-4实现盈利,但仍没有足够的收入来实现收支平衡。报告数据显示,自从OpenAI开始开发ChatGPT以来,亏损额在5月份翻了一番,达到了5.4亿美元。尽管微软对OpenAI进行了100亿美元的投资,但也仅能支撑该公司运营而已。报告还进一步指出,如果OpenAI不能迅速获得资金,该公司将有可能在2024年底之前申请破产。 

为什么会这样?其实,类似于ChatGPT这类的大模型一般有两方面,一方面是模型训练,另一方面是模型推理应用,动辄几亿的算力投入还只是在模型训练阶段,而在模型推理应用阶段,对于算力的需求要远高于训练阶段。假如大模型想要支撑成百上千万用户频繁使用,那么就得需要百亿量级的算力成本。

由此可见,大模型的训练、推理还是非常消耗成本的。据悉,特斯拉CEO马斯克启动了一项人工智能项目,为此购买了约1万个GPU。在ChatGPT运行过程中,其庞大的参数量和复杂的结构,也需要大量的计算资源和运营成本来维持其运行。微软也为ChatGPT付出了相当大的代价,微软曾用几亿美元,耗费上万张英伟达A100芯片打造超算平台,这也只是为ChatGPT和新版必应提供更好的算力。

解决烧钱焦虑需要建立良好的盈利模式

如今,大模型经历探索期、突破期,正在进入推广期。在这一时期,大模型需要面对如何能够落地,又是如何在真正的应用场景中产生价值。从商业模式上来看,在经历前期的烧钱投入,甚至未来还需要大量投入的情况下,如何才能暂时缓解烧钱带来的焦虑。在笔者看来,解决方法就是建立良好的盈利模式,通过场景化、行业化落地产生一定的价值,进而以收入弥补投入。

经过初期的喧嚣之后,AI大模型如何落地商业化,企业客户如何享受这轮AI红利,解决“AI焦虑”。幸运的是,在推广期,AI正在尝试在更多场景中实现更大规模的应用:一方面是在农业、工业等更多行业、更多场景中应用AI技术;另一方面,任何场景中使用AI技术都变得极为容易,技术门槛更低、算力成本更低、部署要求也更低,不断推进AI像水、电、气一样成为普惠性技术。未来,让AI技术产品化、标准化以及普惠化,成为AI技术发展的新重点。

对于场景化落地,业界也有诸多观点。腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声表示:“企业需要的,是在实际场景中真正解决某个问题,而不是在100个场景中解决70%-80%的问题。”在他看来,技术的根本出发点是解决实际问题,如果不能深入行业探索,便不能真正解决行业面临的问题。

腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生也坦言:“产业场景已经成为最佳练兵场。”针对场景化落地问题,网易CEO丁磊表示:“AI的发展可以用百花齐放、百家争鸣来形容,但其中落地场景最关键,网易最重视的是根据场景产出适用于用户需求的AI产品。随着AI大模型的发展,企业会逐渐找到优化路径,不断降低大模型研发所需的资金和算力。” 

在笔者看来,场景落地才是AI技术发展的重中之重,不论多么强大的技术都要走出实验室才能发挥真正的价值。甚至可以说,在AI大模型竞赛中,真正的胜者是能选择好应用场景的企业。

降低门槛,解决场景化落地挑战

随着AIGC的广泛应用,越来越多的企业开始借助AI大模型来推动业务变革。然而,在企业利用大模型重塑业务的同时,如何降低AI技术的门槛,让更多企业能够充分利用大模型的能力,成为了拥有大模型技术的平台型企业所面临的重要问题。

阿里认为,解决问题的最佳途径是“PaaS化”,越来越多行业专属大模型的出现,预示着大模型会从B端场景进入C端场景。在AI PaaS的助力下,企业能够快速、低门槛地搭建起专属智能化应用。未来,AI大模型将呈现从有趣到有用,从玩具到工具的发展路径。

腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生也提出自己的方法论,他表示:“选择具有一站式行业大模型服务能力的云厂商合作,基于行业大模型,构建自己的专属模型,或许是企业探索大模型应用实践的可行路径。”

据笔者观察,一些已经采用大模型对客服系统进行改造的银行客户,通常会选择私域部署方式,即结合硬件和软件,利用自己已有的知识图谱和数据进行训练和推理。这样既能确保数据安全,又能降低算力成本。

AI大模型已经在办公、医疗、教育、金融等场景落地。在金融行业,马上消费首席信息官蒋宁认为大模型落地产业应用有四个关键难题:首先是可控、安全、关键任务和动态适应性难题。其实是,如何平衡个性化服务和个人隐私数据合规的问题。最后是,如何让模型生成群体智能与安全可信问题。

蒋宁表示:“对于金融行业本身来讲,存在‘数据孤岛’,这会让大模型无法形成生态,没有形成生态的模型很难形成群体智能。”

写在最后

在笔者看来,无论是商业模式还是科技服务于人的观念,AI模型的发展必然会经历行业化、场景化的阶段。如果只是将AI停留在理论层面,而无法应用于具体的行业和场景,那么它并不会为企业带来短期的商业价值。

同时,AI的发展是一个长期的过程,需要耐心和细致的工作,这要求我们在推动AI技术的普及时,必须保持冷静,不急功近利。那些能够基于AI技术实现长期增长的企业,往往是那些低调务实、专注于技术和场景落地的玩家。只有坚定地走下去,才能实现稳健而长远的发展。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部