2024年逐渐远去,新的一年悄然而至,回顾这一年,科技界和风险投资圈的目光无疑聚焦在了人工智能。层出不穷的新产品,巨额的融资,独角兽创始人不断刷新人们的观念,如同走马灯般,你方唱罢我登场,而看客每天都在期待下一个大新闻。
诚然,2024年可以说是生成式人工智能大模型领域承前启后之年,虽然未再现GPT-3和ChatGPT横空出世的震撼,但在延续前几年技术积淀的基础上,开启了广泛应用的时代。从AI技术首次涉足诺贝尔奖评选,到Cursor作为AI辅助编程的标杆工具彻底改变开发者的工作方式,再到Perplexity、Talkie等现象级AI应用打入大众市场,以及Sora在多模态生成领域进一步接近自然和人类规律,生成式AI展示了从技术探索迈向实际应用的巨大势能。
与此同时,算力仍然是推动技术进步的关键瓶颈,高昂的研发成本也随之攀升。此外,技术幻觉问题以及隐私与伦理方面的挑战依旧悬而未决。尽管大模型在技术上不断取得进展,吊足了胃口的人类,已不再满足于GPT o1的能力,而是期待通用人工智能(AGI)的世界马上到来。与这一宏大愿景形成对比的是,生成式AI的焦点正在逐步转向小模型的高效化以及低能耗解决方案,以便更加深入广泛的行业应用。另外,日益强化的行业监管和愈加激烈的市场竞争,也为这一领域的发展增添了更多变数与挑战。
接下来,让我们回到2024年,共同回顾生成式AI在这一年中波澜起伏的发展历程。
技术持续突破永不停歇
在这一年中,生成式AI技术的前行步伐虽不如前几年那般势如破竹,但从深度到广度的突破依然令人瞩目。
接近年底时刻,2024年12月5日 - 21日,人工智能的头号玩家OpenAI马不停蹄地做了为期12天的直播。最后1天,OpenAI重磅发布新一代推理模型系列o3,其在极其困难的数学和逻辑问题能力基准测试ARC-AGI中,最佳状态下取得了87.5%的分数,达到85%的分数即被认为是“人类水平”,而在Codeforces竞赛编程上的评分达到2727,也超越了大部分人类程序员。
2024年从o1preview到o3在Codeforces的评分进化,来源:ibb.co
去年,OpenAI还有两个里程碑式的大模型发布。一是最早于9月发布的o1模型,代号“草莓”,尽管它的性能要低于后来发布的o3模型,但其里程碑意义不容忽视。o1模型首次实现了在回答用户提问时,形成类似人类思维方式的内部思维链CoT(Chain of Thought),这一突破显著提升了模型在处理复杂和专业性问题时的表现,尤其是在研究、策略制定、编码、数学和科学等领域的高难度任务中,回答的准确性和逻辑性得到了明显改善。“思维链”这一概念也迅速走红,成为2024年大模型领域最常被提及的技术关键词之一。
二是早在2月份就预先发布的Sora,十个月后正式发布。它支持多种输入方式,如文本、语音、图片或视频,据OpenAI介绍,Sora支持用户生成最高1080p、最长20秒、多种尺寸比例的视频,同时Sora能够理解和模拟物理世界的运动规律,使得模型的生成效果更加逼真。此外,Sora还配备了故事板、混剪等编辑功能,相当于给视频加分镜、剪辑、特效,更能满足创作者自我表达创意的需求。
OpenAI Sora,来源:OpenAI、beebom.com
随着年初Sora的推出,多家科技公司争相发布新的多模态大模型,整个2024年让我们见证了多模态大语言模型(MLLMs)的快速崛起。
2024年的多模态模型能够更加自然地融合文本、图像、音频、视频等多种模态的数据,生成高度准确的视觉内容。人们还把多模态延展到三维空间世界,李飞飞创办的World Labs用一张图、一句话就能生成3D世界的AI系统,堪称“虚拟世界生成器”,该技术将降低3D内容制作的成本、激发更多的沉浸式体验。
在运算效率方面,2024年的新一代多模态模型通过引入稀疏激活机制、模型压缩和分布式算力架构,大幅提升了处理速度和响应效率,与以往需要离线计算或长时间生成的模型相比,性能更为出色。此外,这些模型突破了早期多模态技术对单一任务的限制,具备更强的上下文理解能力和任务适配性,能够胜任更复杂的任务,例如根据一张照片生成完整的故事情节,或通过语音输入实现图像增强和视频制作。这些进步让多模态模型在影视及广告行业的应用更为广泛,使其大幅提升内容创作效率、显著降低制作成本成为可能。
2024年,当AI各类大模型的不断升级,巨量算力需求持续攀升。为了满足日益复杂的任务需求,进一步增强算力成为推动大模型技术进步的核心动力。
提及算力必须要提到英伟达,去年其H100 GPU凭借卓越的并行计算能力和显著优化的AI训练与推理速度,成为生成式AI的核心处理器。去年3月,英伟达发布了新一代GPU架构——Blackwell,该架构在训练与推理方面展现出卓越性能,进一步巩固了其行业领导地位。同时,谷歌的TPU和亚马逊的Inferentia等专为AI任务设计的定制芯片也在2024年加速普及,这些AI芯片亦推动了算力效率的持续提升,为人工智能的深度应用提供了强大支持。
英伟达创始人黄仁勋展示Blackwell GB200 Superchips,来源:英伟达
与此同时,云平台则成为AI算力的最佳载体,它不仅降低了企业和开发者使用高性能AI算力的门槛,还为模型训练、推理和部署提供了强大的基础设施支撑。2024年,这一协同关系在技术和应用领域都实现了重要突破,如英伟达与多家云服务商合作推出了“AI超级计算云”。
云计算服务模式也在不断演变,模型即服务(MaaS)逐渐成为一种新兴的基础服务,通过MaaS,用户无需自行构建或训练模型,即可直接通过API调用云平台托管的大模型。这种模式不仅让原本未采用SaaS的用户感受到云计算的弹性和按需付费的优势,降低开发者的技术门槛的同时,也推动了更多企业主动上云,加速了云计算与人工智能的融合与落地。
在2024年,针对大模型长期以来的“幻觉”(Hallucination)问题的缓解方法,业界亦达成了较为明确的共识。“幻觉”是指模型在生成内容时出现的不准确或虚假的信息,成为AIGC投入实际应用的最大障碍。当前,利用Agent和检索增强生成(RAG)技术结合小模型和微调的方法,可以大幅降低“幻觉”的不良影响,让结果达到需求方可接受的程度。
Agent架构让大模型能够分解复杂任务,逐步进行推理。与传统的大模型“一步到位”给出答案不同,Agent的多步骤执行机制更接近人类的逻辑思维。例如,在回答涉及多个逻辑链条的复杂问题时,比如金融涉及时事和法律的问题,Agent可以分步调用小模型或外部工具验证每一环节,减少幻觉的产生。
当用户提出一个问题时,RAG机制让大模型优先从知识库中检索相关文档,这些知识库可能来源于内部文档,也可能是实时搜索获取,然后基于这些可靠数据生成回答,从而显著提升内容的准确性和可解释性,同时有效降低大模型的训练成本。此外,在有些特定领域,如医学、教育,通过微调小模型,可大幅提升其在该领域的表现,不仅应对了大模型泛化能力强但特定领域表现不足的短板,亦使其更容易落地到应用场景,由此开启了大模型企业级应用时代。
来源:Mhammed Talhaouy
应用爆发大放异彩
谈及应用,2024年可谓是AI大模型应用全面爆发的一年。在这一年中,大模型不再只是科研论文中的技术突破,停留在ChatGPT 20美元订阅费的体验版,而是广泛推向全球各个应用场景,成为改变行业运作方式的推动力量。从办公效率革命到精准医疗,从智能金融到数字人的直播体验,人们开始利用大模型赋予各行业全新的生命力。
实际上,从2024年12月的AI排行榜可以看出,MAU(按月活跃用户)排名靠前的AI应用主要还是集中在办公效率工具领域,除了ChatGPT、Gemini和Claude等聊天机器人外,许多应用在办公场景中亦表现突出。微软Copilot作为早期的样板,推动了办公工具在2024年的全面发展。文章写作、PPT制作、绘图、视频创作、笔记和语法校正等功能,不仅能为用户节省大量时间,还能生成新颖、有创意的成果。不过此类应用的门槛相对较低,同质化竞争较为激烈。同一种需求,市场上可能存在上百个类似产品,脱颖而出并不容易。
2024年12月全球AI产品榜(web端),来源:公众号@AI产品榜 aicpb.com
此外,有些专业性较强的领域,像金融、法律、医疗和制造等行业,尽管存在一些具有针对性的AI应用,但即便在行业内部也鲜有应用,尚未实现广泛的“破圈”。对于投入大量开发成本的企业负责人而言,尽管他们绞尽脑汁,尝试为自身行业需求定制“套壳”的AI解决方案,但这些应用往往未能达到预期的用户量,更难以实现销售转化。
红杉资本在《Generative AI’s Act o1》报告中肯定了AI在各专业场景中通过“Multi AI Agent”实现深度整合的未来趋势,然而,这并非简单的“新瓶装旧酒”,而是对传统数字化的颠覆性革新。与过去的任务编排模式相比,AI Agent正朝着完全自动化的方向迈进,减少甚至无需人工干预,背后应是对行业深度理解基础之上的强大推理能力。红杉的报告人表示,这个过程还在持续进化之中。
https://www.sequoiacap.com/article/generative-ais-act-o1/,来源:Sequoia Capital
值得注意的是,去年AI搜索引擎——作为一个独特的应用领域,其头部企业在融资方面取得了显著进展。其中,Perplexity AI在12月完成了5亿美元的融资,使公司估值达到90亿美元;此外,企业搜索初创公司Glean于9月宣布完成超过2.6亿美元的融资,估值翻倍至46亿美元;甚至连OpenAI也于7月25日首次推出了搜索引擎产品SearchGPT。
成功背后的原因,我们认为主要来自三大方面,第一是AI搜索依靠的技术已经取得了长足进步,正如前面提到的大模型、RAG以及算力,正让搜索结果变得“简单可依赖”;第二,搜索蕴含着巨大的市场,实际是在侵蚀现有搜索引擎的市场空间,AI搜索的前段逻辑是先给出结果,再给出对应的参考网站,这为大量用户节省了二次查找的时间,部分替代了原有搜索引擎的功能;第三,在Agent架构下提供专业领域的知识库,能够灵活地帮助用户查找特定网站或特定专业领域的内容,而传统搜索引擎配置信息源的成本比较高。
带来更为惊人变化的,还有广告领域。美国数字营销公司AppLovin转型成为AI公司后,股价已从年初的每股38.78美元一度飙升到最高每股417.64美元(2024年12月6日最高价),涨幅超过977%。生成式AI+动态预算优化是AppLovin AI的核心逻辑,从而能够提高投资回报率和货币化机会。
具体来说,AppLovin首先采用生成式AI自动生成个性化广告内容,接触到大量的用户,然后通过AI模型实时监测用户获取成本(CAC)和用户生命周期价值(LTV)来动态调整广告预算,形成一个持续优化的闭环,机器学习则帮助平台逐步提升投放效率并降低成本。同时,AppLovin采用多AI Agent协同架构,将复杂的广告运营流程分解为创意生成、行为预测、竞价优化和效果分析等独立的Agent协作运行,如此进一步提升平台的灵活性和效率。
Applovin机制,来源:https://www.linkedin.com/pulse/applovin-app-hyoungjun-kang-tjthe/
比Applovin更加迅速崛起的2024年现象级应用,Cursor无疑是最值得关注的一匹黑马。这家基于提示词自动生成应用程序的AI应用公司在去年8月份之前还默默无闻,8月a16z和Thrive Capital给Cursor的投资到位,估值4亿美元,到年底的B轮融资,估值高达26亿美元,12个工程师让公司估值上涨了6.5倍,如今已经成为百万程序员的必备神器,靠每月20美元的订阅费,让经常性年收入达到1亿美元。
不只是改变程序员,Cursor重大意义更在于工作方式的变革。在Cursor的世界里流传着一段传奇故事是一位8岁的小女孩利用Cursor在45分钟内就构建了一个聊天机器人,技术对普通人的神奇改变犹如当年的“别针换别墅”;同样不会编程的产品经理陈云飞花了1小时写了一个名为“小猫补光灯”的APP,然后发布在了苹果APP Store,一度在收费榜中排名第一。著名人工智能专家、Coursera创办人吴恩达认为懂AI的产品经理将在未来的市场中占据更为重要的位置,AI让开发门槛降低,而对能够明确“构建什么”的人才需求将大幅上升。
另外值得一提的是2024年获得巨大发展的中国AI出海应用。根据SensorTower发布的2024年上半年美国AI应用市场的下载量数据显示,排名前十的AI应用中有三款来自中国企业。其中,MiniMax的陪伴式应用Talkie在美国下载量排名第四,超越了美国同类产品领头羊Character.ai。MiniMax的另一款AI视频应用海螺(Hailuo)亦曾在9月登顶全球及国内增速榜首,而在教育领域,Question.AI和Gauth更是双双领跑美国市场,成为行业标杆。
最近几年,中国科技企业在全球化的运营经验越来越成熟,善于根据目标市场的文化特点和用户习惯调整产品,而且中国出海的AI应用通常采用更高性价比的服务策略,例如,通过低门槛的订阅费或免费增值模式吸引大量用户,随后再利用丰富的功能层层加深用户粘性。
来源:talkie
我们再来说说AI硬件,2024年也被视为AI硬件的创新大年。各类硬件设备——从手机、PC、汽车、耳机、眼镜甚至玩具——纷纷融入AI技术,尽管这些AI硬件还未全面渗透到消费者的日常生活,但通过AI技术的加持,已经增强了原有产品的用户体验。
苹果和Google推出的AI手机成为这一年行业的标志性事件。前者推出了集成Apple Intelligence的大模型生态系统,将AI深度融入iPhone 16系列手机;后者则在其Pixel系列中强化了多模态交互功能,国产手机厂商也纷纷布局这一领域。此前根据赛迪顾问预测,2024年新型AI手机的出货量预计将会达到1.5亿部,占全球智能手机总出货量的13%。
AI手机各厂商的目标远不止类Siri的升级版或是简单接入大模型,2024年流行的一个名词“端侧AI(On-device AI或Edge AI)”是指在本地设备(如手机、平板、智能手表、智能音箱等终端设备)上运行人工智能模型,而不需要将数据传输到云端进行计算。这样做的好处,除了实时响应与增强体验以外,还可以借助App Intents和App Entities,实现互联互通,调起更多的APP。
尽管不需要特定的手机硬件支持,智谱AutoGLM借助上述理念展现了更为强大的AI助手引起了用户的广泛共鸣,比如用户可以用语音向安装了AutoGLM的手机提问,“帮我上小红书看看火锅需要什么食材”,于是AI智能体上小红书笔记里帮用户去寻找火锅食材,并在“到家App”上自动将上述食材多步骤操作加入购物车并下单。而未来具有端侧AI功能、搭载AI加速芯片的手机将会适配支持更复杂任务交由本地化处理。
作为人工智能与机器人产业交汇处的具身智能(Embodied AI),在2024年悄然取得进步。频繁亮相的特斯拉Optimus机器人去年在运动控制和任务执行方面展现出强大的迭代速度,在运动控制、任务执行、学习能力等方面不断提升水平,业已被特斯拉引入自家的汽车生产线测试。同样,搭载了视觉语言模型(VLM)、能够进行常识性推理,并能与人类进行有效沟通的Figure AI人形机器人Figure 02,也于去年11月正式进入汽车巨头宝马的生产线打工。
Tesla Optimus在操作物体时也具备交流能力,来源:特斯拉
各大车企加速布局人形机器人以外,工业巡检、仓储物流、医疗辅助、建筑与施工、家政服务等领域都在成为具身智能的落地场景。例如Google DeepMind推出的RT-2模型,通过视觉-语言-动作(VLA)模型,将多模态大模型塞进机械臂,使推理与知识赋能给机器人,既能用在家政行业,执行烘焙、清理和准备食材等任务,也能运用在自动化生产线,让我们看到通用机器人的可能性。
而2024年备受关注的世界模型(WFMs)概念,为具身智能的训练与测试开辟了全新范式。机器人能够在虚拟的小世界中进行“试错”和“练习”,从而具备“脑补”的能力,即提前模拟和预测自身动作的结果。这种能力支持具身智能体实现自主决策与持续学习,让机器人从传统的“被动执行”迈向“主动进化”,此被视为迈向通用人工智能(AGI)的重要一步。
你方唱罢我登场的企业竞争格局
2024年,大模型已不再是OpenAI的一枝独秀。如果说2023年以Claude和Llama为代表的挑战者只是星星之火,而在2024年挑战OpenAI的大模型已经燎原。例如,DeepSeek v3模型以仅557万美元的训练成本实现了与Claude 3.5 Sonnet等顶级模型相媲美的性能,显著降低了高性能AI的进入门槛。同时,Meta推出的Llama 3.1和Llama 3.2开源模型在多模态能力上取得重大突破,在图像、音频和文本处理方面更加高效。
我们查看了包括Open LLM Leaderboard、LiveBench AI、MMLU、Chatbot Arena、SuperClue、Lmarena AI在内的多家大模型测评网站,尽管大部分OpenAI旗下的大模型仍居榜首,不过有些靠前位置则被Claude和Gemini取代。根据Menlo Ventures的调查报告,Claude的市场份额从12%翻番到24%,Google从7%提升到12%,而OpenAI的市场份额则从去年同期的50%下降至 34%。
2023和2024年各主要大模型公司市场份额对比,来源:Menlo Ventures
我们先来说说Claude,这个大模型的母公司Anthropic是由OpenAI的前核心团队成员于2021年创立,到2024年也不过3年时间。之所以独立出来创业,创始团队认为,随着大模型越来越强大,AI的不可预测性和安全风险也在增加,因此他们提出了“宪法AI(Constitutional AI)”的理念,强调通过内置规则和透明的设计来减少模型的有害输出。
安全性貌似与普通人无关,不过我们从大模型幻觉角度考虑就容易理解一些,更严格的标准不会让大模型胡说八道,而且,对于金融、医疗和法律等对数据安全与准确性要求高的行业,可靠性与稳定性显得尤为重要,让其成为企业市场的热门选择。前面提到的当红辣子鸡Cursor,去年毅然将其AI编程助手的默认模型也从GPT换成了Claude。
受到企业级用户青睐,加上Claude 3.5本身的技术实力,其流量在2024年实现了爆发式增长,从1月的2019万攀升至11月的8932万,增幅高达342%。这一成绩亦与Anthropic的市场策略密切相关,Claude凭借高性能和灵活架构,成为企业整合AI技术的首选方案之一,同时通过相对低价和良好的企业适配性占据市场优势。据彭博社报道,2024年美国AI初创企业融资达970亿美元,占全年初创融资总额的近一半,创历史新高,Anthropic抓住这一良机,大幅扩充销售团队规模,从2023年的200余名增长至去年9月的1000余名,同比增长500%,加速向市场渗透。因此,许多中小企业在2024年从开源或其他大模型转移到Claude作为其生成式AI能力的底层支持。
我们再来看Gemini。Gemini的发展要放在Google的大格局里看。尽管此前有Bert大模型,但2022年底Google并没有跟上Transformer的浪潮,换句话说,Google落后了,不仅落后于微软,也落后于Meta。而2024年,是Google在AI领域奋起直追的一年。
首先Google想到用AI能力最强的DeepMind的团队,我们都知道DeepMind最成功的作品是阿尔法狗(AlphaGo),尽管过去很多年,实力还在,今年诺贝尔化学奖的两位得主就出自DeepMind,其中一个还是DeepMind的联合创始人兼CEO。
Google打破部门间的藩篱,将Gemini的主导权交给DeepMind,谷歌首席执行官Sundar Pichai称,此次重组旨在不断加快谷歌人工智能开发的步伐。此次重组效果是明显的,Gemini因此能够融合深度学习、神经网络和生成对抗网络(GAN)等多种先进的AI技术,使其具备更强的自我学习能力和生成能力。
我们看到去年全面升级后的Gemini 2.0,以多模态为发力点,使其能够处理文本、图像、音频和视频等多种输入来源,具备全面的感知与理解能力,进一步接近人类对物理世界的认知。而Gemini 2.0强调的定位——“Our new AI model for the agentic era”,通过多模态的强大能力突破了单一任务的限制,更可能达到智能代理所需的“全面感知 + 自主决策”。
Gemini的信心还源于Google尤其是云服务的强力支持。在电商冲击广告业务、搜索面临Perplexity围追堵截之时,Google比以往任何时候都更加重视AI的推动作用。2024年,Google Cloud以Gemini 2.0为核心,整合旗下AI模型与组件,对Vertex AI平台进行升级,并与其生态系统(如Workspace)实现无缝衔接,旨在吸引更多的企业客户,从需求侧深度绑定谷歌云服务,助力其在云计算和AI应用领域占据更大的市场份额。
Google Cloud 12月在深圳的发布会现场,来源:数据猿陆易斯
AI的价值之所以能在云层面得以承载,是因为云平台提供了一个强大的、可扩展的环境,让企业能够以较低的门槛快速开发、部署并运行AI应用。除Google 外,2024年亚马逊AWS和微软Azure也在云平台上深度布局AI,以争夺市场份额。
亚马逊AWS在2024年的re:Invent大会上推出了一系列新技术,包括Amazon Nova基础模型和Amazon Bedrock的重大升级。Bedrock则新增超过100款AI模型,并引入多代理合作和安全防护机制,以优化推理场景的准确性和成本。AWS还强化了其生成式AI助理Amazon Q,使其更深入地应用于软件开发和商业场景。
微软不只与OpenAI保持整合,在Microsoft Ignite 2024全球开发者大会上,微软宣布,已经建立了全球规模最大的企业级AI解决方案生态系统,用户可以通过Azure AI目录访问超过1800个AI模型,企业可根据自身需要构建AI智能体。微软表示,自推出以来,已有超过10万家组织用Copilot Studio创建了自身的AI智能体。
国内的通义千问(阿里巴巴)和豆包(火山引擎,字节跳动)同样体现了大模型与云计算深度绑定的发展策略。
阿里巴巴依托其强大的阿里云生态,充分整合了旗下大模型通义千问的能力。通过阿里云,通义千问能够为企业提供定制化的行业解决方案,如电商推荐、客户服务、内容创作等,从而吸引更多的企业客户上云。火山引擎则利用豆包大模型,提供诸如广告优化、内容生成、视频编辑等高度垂直的服务,与字节跳动的内容生态如抖音、今日头条等平台以及工具链如创作工具剪映高度协同。
来源:艾瑞
由此我们可以看出,尽管中美的科技巨头在产业结构上采取了相似的路径,但中国企业更加注重内部生态的整合。对于国内头部企业而言,走过了“百模”大战的2024年是围绕大模型生态进行布局和竞争的一年,不论是C端还是B端市场,都涵盖在内。对于中国消费者而言,他们并非局限于某一特定生态,而是通过对比各家产品功能,力求获得最佳性价比。
我们以字节跳动的AI布局为例。首先,2023年11月,字节成立Flow部门,专注于AI模型的技术开发与应用,共分为三层,Stone团队承担产品研发支持职能;Seed团队主攻大模型研发;Flow团队则聚焦AI产品应用开发。其中,作为底座的豆包大模型以“豆包通用模型PRo”、“视觉理解模型”、“语音合成模型”为主打分别对应文本、视频和音频,其研发水平的提升通过评测的方法不断对比国际同类大模型,而其中又根据不同细分场景,再切出来几十种特定模型,如声音复刻模型、角色扮演模型,适配各类场景应用;而更底层的火山引擎则提供底层算力和云计算基础。
然后,字节沿用国内APP矩阵的做法,开发一系列的AI产品,并非只单做国内市场,而是采取海内外同步推进的战略,多场景全方位对标国际产品。比如豆包对应ChatGPT,虚拟陪伴猫箱对标Character AI、智能体开发平台Coze对应Dify、AI编程工具Marscode对标Cursor;这里也包括一些硬件产品,比如AI耳机“Ola Friend”、AI玩具“显眼包”。
字节跳动旗下AI应用/硬件,来源:第一财经杂志官方百家号、海通国际
与此同时,字节还将AI整合进现有产品线,提升现有产品的流量、回访率和复购率等,例如为抖音和Tiktok提供“即创”工具平台,提供包括数字人、直播脚本在内的创作工具;为剪映提供“即梦”文生图、文生视频工具;为大力教育提供豆包爱学等等。
另外,不容忽视的是字节以“更低价格”与“更易落地”的策略抢占市场先机。2024年5月,豆包大模型刚发布的时候,主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%,如此比其他竞品赢得了更多的客户。
算力采购价格是影响大模型最终价格的核心因素,尽管国产芯片逐渐加码,国内厂商对英伟达仍有巨大的采购需求。根据科技顾问机构Omdia数据,字节跳动和腾讯2024年分别订购了约23万片英伟达的芯片,其中包括Hopper架构下的低版本芯片H20,在Hopper架构的总购买数量仅次于微软。
来源:Omdia
在算力领域,英伟达凭借其领先的技术和生态系统,始终占据行业主导地位。根据Trendforce和Digitimes,单看搭载GPU的AI服务器,英伟达市占率逼近9成,其主要竞争对手AMD市占率则仅约8%。去年10月,AMD发布了MI325系列数据中心加速器,与英伟达依然有显著差距,其管理层表示,与目前正在扩大规模的英伟达Blackwell的竞争可能不那么顺利。从收入的表现来看也是如此,AMD的收入增长并不像英伟达那么明显。
来源:wright's research
靠追赶是很难撼动行业主导者地位的,但下一代技术未必。2024年12月10日,谷歌推出Willow芯片,携带105个物理量子比特,能够在短短不到五分钟的时间,完成了当今最快的超级计算机Frontier需要10²⁵年才能完成的一个基准测试任务。这将为人工智能的发展提供全新范式的想象空间。
这一年,人工智能带给我们不同层面的想象空间还有很多,当OpenAI GPT3打开了潘多拉的盒子,2024则是人工智能迈向全新高度的一年。从生成式大模型的技术持续突破,到多模态模型应用的全面爆发,再到AI驱动行业变革的深度渗透,AI的影响力已经无处不在。然而,这一年也让我们意识到,算力、幻觉、成本、伦理和监管等问题依然是未来发展的重要挑战。
尽管通用人工智能(AGI)的宏大愿景仍需时间来实现,2024年让我们看到了人工智能从“前沿探索”逐步走向“实际落地”的巨大潜力。小模型的高效化、多模态模型的自然化、Agent架构的智能化,以及各行业的广泛应用,特别是与云生态的全面衔接,都表明人工智能已不再是远离生活的科技,而是深刻改变社会经济格局的重要力量。
展望未来,人工智能的道路依然波澜壮阔。随着更先进的技术、更高效的模型、更强大的算力和更健全的行业生态的逐步形成,人工智能的奇迹将继续书写。而我们每个人,也将在这场浩大的技术浪潮中,成为亲历者、见证者,甚至是推动者。波澜壮阔的2024年,将为人工智能的未来埋下无数可能的种子。
文:陆易斯 / 数据猿责编:凝视深空 / 数据猿
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有