科大讯飞刘庆峰:自主可控和软硬一体才能实现大模型深度落地

科大讯飞刘庆峰:自主可控和软硬一体才能实现大模型深度落地
2024年06月27日 22:58 澎湃新闻

“只有自主可控的繁荣生态,才有中国通用人工智能的大未来。”

6月27日,科大讯飞股份有限公司(科大讯飞,002230)发布讯飞星火大模型V4.0及相关落地应用。该模型基于全国首个国产万卡算力集群“飞星一号”训练,模型能力全面对标GPT-4 Turbo,并在文本生成、语言理解、知识问答、逻辑推理、数学能力等方面实现超越。在图文识别能力方面,已领先GPT-4o。

科大讯飞董事长刘庆峰在发布会上表示,这标志着完全自主可控的大模型进入了一个阶段,有重要意义。

他表示,在中美科技人工智能最激烈的博弈之下,国产大模型底座的能力和支撑,决定了能在这条路上走多远,决定了能否在这一波人工智能浪潮中享受更多红利,只有自主可控的繁荣生态,才有中国通用人工智能的大未来。

刘庆峰在讯飞星火大模型发布会上发言       澎湃新闻记者 秦盛 图

星火大模型V4.0的长文本能力也得到升级,并针对长文档知识问答的幻觉问题,首发溯源功能。在国内外12项大模型主流测试集中,讯飞星火在8个测试集中排名第一,超越GPT-4 Turbo等国际大模型。

日前,科大讯飞作为第一完成单位的《多语种智能语音关键技术及产业化》项目,获得国家科学技术进步奖一等奖,此次发布会上也进行了一次“炸裂”的展示。

刘庆峰称,语音将成为万物互联时代人机交互的主要方式,人机交互最重要的场景是远场、噪声、多人说话、多语言,因此万物互联时代的AIUI(人工智能用户界面)要满足远场高噪声、多语言多方言、全双工、多模态等标准。

星火语音大模型在升级后能够支持37个语种和37种方言免切换对话。在发布会现场,演示人员演示了在讯飞输入法连续用上海话等多种方言以及日语等多个语种进行对话,都被精确识别。

据介绍,37个语种的识别能力优于OpenAI whisper-V3,37个方言识别效果平均提升30%。

同时,科大讯飞还展示了强干扰场景下的语音识别,在三人同时讲话并有背景声音的演示中,实现了三人重叠语音的角色分离,并实时转写出每个人说的话。

此外,科大讯飞还发布了星火企业智能体平台,包括商机助手、评标助手等智能体案例功能。

面向未来的人工智能新生态,刘庆峰强调,要关注源头技术生态、智能体生态、应用生态和行业生态,实现自主可控和软硬一体,才能实现大模型的深度落地;既要科学理性地认识中美在大模型上的综合差距,也要有信心快速追赶。

刘庆峰表示:“一定要看到中美之间的差距才能够迎头赶上,绝不能盲目自信,盲目的认为我们都已经超越了。”

此外,他还表示,要给出从源头技术、到产业生态、再到应用落地的一整套的打法,以长期主义来打造真正自主可控的AI产业生态。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部