机器之心报道
编辑:蛋酱
新一波 AI 技术浪潮来袭的时代,什么样的人才最抢手?
最新公布的一份「奖学金名单」,或许能告诉我们答案。
刚刚,15 位年轻的博士生,喜提 2024 年度字节跳动奖学金。
据字节跳动招聘官方账号披露,这些获奖人来自清华大学、北京大学、浙江大学、北京邮电大学、新加坡国立大学等国内外知名院校。在今年的名单中,不仅获奖人的数量比往年更多,入选高校的范围也扩展到了中国大陆、中国香港和新加坡三地。
到今年,字节跳动奖学金已经是连续第四年颁发,前后入选该计划的技术人才也增加到了 47 人。这一届字节跳动奖学金在 2024 年 8 月发起,最终共有 44 所高校的 424 人报名申请。经过材料初审、复审的严格评选流程,47 名顶尖技术同学进入到终审答辩环节,15 位同学最终拿下了每人 10 万元的奖金。
获奖信息详见字节跳动校园合作官网:https://ur.bytedance.com/home
大部分获奖人都在 CVPR、ICCV、NeurIPS 等顶会上发表过多篇论文,年纪轻轻就已经是「高被引研究者」;一部分获奖人的开源项目在 GitHub 获得的 Star 量轻松过万,在 Hugging Face 被下载数百万次;还有一部分获奖人,潜心投入大模型、具身智能、物理世界建模等前沿方向,做出了一系列奠基工作,广受好评。
当我们好奇怎样才算高端 AI 人才的时候,打开这份奖学金名单,或许就明白了。
2024 年获奖名单
陈仁泽
- 院校:北京大学
- 研究领域:机器学习系统
- 导师:梁云
陈仁泽参与的研究集中于机器学习系统领域,包括深度神经网络(DNN)的转换和优化。他参与的研究工作已发表于 ASPLOS、ISCA、HPCA、NeurIPS、MLSyS、DAC 等国际顶会,陈仁泽作为第一作者(含共一)的论文共有 5 篇。这些成果涵盖 “算子间融合”、“计算图调度”、“低秩化压缩” 和 “稀疏化压缩” 等方向,聚焦于机器学习系统的内存优化,显著降低了模型在云端和边缘端硬件上的内存占用。
方共凡
- 院校:新加坡国立大学
- 研究领域:高效深度学习
- 导师:王鑫超
方共凡的主要研究领域是高效深度学习,包括深度网络压缩与高效模型设计。他提出了首个通用化的结构化剪枝框架 “DepGraph 技术”,令模型剪枝实现了自动化。他还开发了开源工具 Torch-Pruning,用户只需几行代码就能完成复杂模型的剪枝任务。此外,他针对大规模生成模型提出的 MaskLLM、Diff-Pruning、LLM-Pruner 等高效压缩方案,也显著降低了网络规模和训练成本。相关研究成果累计被引用超 1500 次、开源项目的 Github 星标超 8000。
冯寅潇
- 院校:清华大学
- 研究领域:计算机系体系结构和高性能互连网络
- 导师:马恺声
冯寅潇的主要研究领域是计算机体系结构和高性能互连网络,包括芯粒(Chiplet)架构、片上网络、超算网络、数据中心网络、分布式系统和人工智能基础设施等。
作为第一作者,他的研究成果发表于 DAC 2022、MICRO 2023、HPCA 2023、ATC 2024、MICRO 2024、SC 2024 等顶会和期刊,解决了芯粒架构从新兴技术走向产业落地的一系列关键问题和挑战,推动了后摩尔时代计算机体系结构和下一代高性能互连架构的发展。
傅炜
- 院校:清华大学
- 研究领域:强化学习,分布式系统
- 导师:吴翼
傅炜专注于解决强化学习应用在实际场景时的各种挑战。过去三年,他共发表六篇顶会(ICRA、ICLR、ICML 和 NeurIPS)论文,其中四篇担任第一作者或共同第一作者。他共同领导了大规模强化学习系统 “SRL 项目” 的开发,成功复现了 OpenAI 在捉迷藏环境中的解决方案。2024 年,他开发并开源了面向大语言模型的 RLHF 系统 “ReaLHF”,不仅实现了出色的训练吞吐量,还推动了先进的数学和编程智能体的开发。
刘克非
- 院校:北京邮电大学
- 研究领域:RDMA,网络测量与故障定位
- 导师:张娇
刘克非的主要研究领域是 RDMA、网络测量与故障定位。在字节跳动高速网络团队实习时,他设计研发并在字节跳动数据中心内推动部署了主机内网络瓶颈定位工具 Hostping 和 RDMA 网络监控与故障定位系统 R-Pingmesh,高效保障了字节跳动训练业务的稳定、高效运行。相关成果已发表于 SIGCOMM 2024 (CCF-A) 、 NSDI 2023 (CCF-A)、、 IEEE/ACM Transactions on Networking (CCF-A) 等顶会顶刊。
刘毅
- 院校:香港城市大学
- 研究领域:人工智能物联网安全与隐私
- 导师:王聪
刘毅的主要研究方向是人工智能物联网的安全、隐私与可信治理,并在相关领域取得了创新性和引领性的优秀成果及落地实践。他曾入选 2024、2023 年全球前 2% 顶尖科学家,并作为第一作者,发表 4 篇 CCF-A 会议 / 期刊论文和 7 篇 JCR 一区期刊论文(含 6 篇 ESI 高被引论文),授权国家发明专利 3 项,Google Scholar 统计总引用超 3258 次。
宋宇轩
- 院校:清华大学
- 研究领域:深度生成模型及其在科学发现中的应用
- 导师:马维英、周浩
宋宇轩此前曾在字节跳动人工智能实验室全职担任研究工程师,他当前的研究集中在深度生成模型和科学人工智能(AI4Science)领域,特别关注开发有效且可扩展的机器学习算法,以解决分子生成、材料设计和蛋白家族设计等难题。目前,他已在 NeurIPS,ICML,ICLR,AISTATS 等机器学习会议发表多篇论文,其中,GeoBFN 获评 ICLR2024 Oral。他还曾参与蛋白质折叠的 CAMEO 竞赛,并连续六个月获得第一名。此外,他还曾获评清华大学智能产业研究院院长奖。
孙振俗
- 院校:新加坡管理大学
- 研究领域:智能软件工程
- 导师:David Lo
孙振俗的主要研究领域是智能软件工程。他提出的 “面向 AI 的编程语言语法” 提升了模型推理效率,该成果发表于 ISSTA 2024 并荣获 ACM SIGSOFT 杰出论文奖。他还首次提出了基于大模型的代码补全存在无效代码补全的问题,并相应设计了预防及动态推理机制,相关成果分别发表于 TOSEM 和 ICSE 2024。他针对 “如何防范与利用代码大模型训练数据集中的脏数据” 的研究成果,也发表于 ICSE、WWW、 FSE 和 ISSTA 等顶级会议,并获得 ICSE 2022 杰出论文提名。
王梦召
- 院校:浙江大学
- 研究领域:数据库、大数据、信息检索
- 导师:高云君
王梦召主要研究高维向量数据存储与检索、面向 RAG 的搜索系统,致力于打造面向 AI 应用的新型数据基础设施。他在近邻图向量检索细分领域取得了多项理论或技术突破,并针对亿级以上向量数据规模场景提出的磁盘导航图索引优化框架,将查询延迟降低超 90%,将查询吞吐量提升 1 个数量级。近几年,他曾主持省校级项目 3 项,主要参与 10 余项国家级和省部级科研项目。他还作为第一或通讯作者,在 SIGMOD、VLDB、ICDE、NeurIPS 等顶会和期刊上发表论文 6 篇,授权发明专利 3 件。
汶川
- 院校:清华大学
- 研究领域:具身智能,机器人
- 导师:高阳
汶川研究方向是具身智能。博士期间,他提出了 RelatiViT 模型,实现从预训练视觉模型中提取空间关系信息;提出了 Any-point Trajectory Modeling (ATM) 方案,实现了小样本与跨具身模仿学习的能力。同时,他还发现并定义了模仿学习中因为时序信息造成的虚假关联性而出现的 copycat problem,并提出系列解决方案。他共发表国际顶会论文 13 篇,其中 7 篇为第一作者。此外,汶川还是 NeurIPS、ICML、ICLR、CVPR、ECCV 等国际会议和 RA-L 等国际期刊的审稿人。
吴海旭
- 院校:清华大学
- 研究领域:深度学习、科学机器学习
- 导师:龙明盛
吴海旭的主要研究方向是深度学习和科学机器学习。他提出的 Corrformer 首次实现了全球数万台物联网设备的联合预测。他开源的时序分析算法库 Time-Series-Library,获得了 7000 多个 GitHub 星标,在全网 70000 多个时序相关仓库中排名前万分之二。此外,他提出的局域优化理论 RoPINN 和 PDE 快速求解网络 Transolver,可以在秒级完成千万级网格的模拟。当前,他作为第一作者(含共一)在 Nature Machine Intelligence、ICML、NeurIPS、ICLR 等国际顶会顶刊发表论文 10 余篇,谷歌学术引用 5000 余次。
吴睿海
- 院校:北京大学
- 研究领域:具身操作和三维视觉
- 导师:董豪
吴睿海的主要研究方向是具身操作和三维视觉。在具身智能的物体操作这一领域,针对不同类别和属性的物体,他提出了一系列物体操作的视觉表征,用以指导完成柔性、铰接等不同物体的不同操作任务(如叠衣服,开抽屉,物体拼接等),并在此基础上,通过构建新的模拟环境,以支持更复杂和真实的操作任务。当前,他已在 RSS、NeurIPS、ICLR、CVPR、ICCV、ECCV、ICRA 等顶级会议,发表了近 20 篇论文。
吴胜琼
- 院校:新加坡国立大学
- 研究领域:多模态学习,通用大语言模型
- 导师:Chua Tat-seng
吴胜琼的主要研究方向是多模态学习和大模型。目前,她已在多模态学习、自然语言处理以及机器学习等领域顶会上(如 NeurIPS, ICML, ACL, ACM MM)发表了多篇论文,谷歌学术被引次数达 2000 次。吴胜琼也获得了多项国际、企业、校级奖励和荣誉,由她主导的通用多模态大语言模型 “NExT-GPT” 工作获得了大语言模型社区广泛的关注和认可,相关开源项目已获得超 3.4k 星标。
杨丽鹤
- 院校:香港大学
- 研究领域:视觉基础模型、以数据驱动的 AI Research
- 导师:赵恒爽
杨丽鹤的主要研究方向是视觉基础模型和数据驱动 AI,相关研究成果的 Github Star 数已超 12000 次,开源模型在 Hugging Face 上累计被下载超 700 万次,且被收录进 Transformers 库和 Apple Core ML Models。作为第一作者,他在计算机视觉和人工智能顶级会议 CVPR、ICCV、NeurIPS 上共发表了 7 篇论文,包含一篇 oral 论文,谷歌学术引用 1500 余次,并入选 CVPR 2024 十大最具影响力论文。
张启
- 院校:北京大学
- 研究领域:面向机器的视频编码以及沉浸式多媒体系统
- 导师:高文、马思伟
张启的研究方向包括面向机器视觉的视频编码和沉浸式媒体系统。他首次提出了面向机器视觉的恰可识别失真概念,将编码性能提升 40%。他还首次验证了机器视觉多样性的广泛存在,提出了机器满意比概念,将编码性能和通用性提升 30%。此外,张启搭建了基于视角区块编码传输的 VR 直播系统,将 12K VR 视频直播所需带宽节省超 75%、视角切换延迟比国际标准降低 50%。目前,他已发表国际期刊、会议论文 10 篇,包含 TPAMI/IJCV 论文 3 篇。
字节跳动奖学金
为何能吸引他们报名?
近年来,我们的确能看到字节跳动在持续加大对顶尖人才和前沿技术的投入力度。
字节跳动在 2021 年发起了「字节跳动奖学金计划 ByteDance Scholarship Program」这个每年一期的人才培养项目,至今已评选出 47 位年轻有为的研究者。
为了发掘这个时代最优秀的一波技术人才,除了 10 万元人民币奖学金,字节跳动还会为这些获奖人提供内部研学计划特邀通道,鼓励优秀人才用技术回馈社会、引领未来。
在多重条件的激励下,每一位获奖人都能找到更加广阔的空间去发挥自身所长,并在这个过程中得到充分的成长。很多获奖人因此与字节跳动结缘,最终选择加入了字节跳动。
Hunter(化名)就是因入选奖学金计划而来到字节跳动,以实习生身份加入了豆包大模型团队的语音组,并在学校导师和 Mentor 的双方指导下开启了将信息论引入大模型量化方向的探索。对于他来说,在字节的研究更靠近实际落地,也能接触到来自全球不同背景、不同技术方向的人才,研究的视野在不断开阔。在这种氛围的激励下,Hunter 不断超越自己,也拿到了非常亮眼的成绩:在今年 7 月的 ICML 大会中,他以第一作者身份提出了 IR-QLoRA,且入选了 Oral(前 1.5%)。
Eric 也是通过字节跳动奖学金评选的机会,结识了字节跳动机器人研究团队的 Leader,并成为了团队的一员,致力于用强化学习解决机器人复杂控制问题。在实习期间,他和团队合作的两篇机器人相关研究都顺利入选了顶会 ICLR 2024,其中的 RoboFlamingo 为机器人领域的研究者提供了一个强大的开源框架,能够更好地发挥开源 VLM 的潜能。
从研发投入到人才计划
字节跳动如何构建「AI 核心」
像 Hunter 和 Eric 这样因奖学金评选来到字节跳动,并充分施展了抱负的人才不在少数。特别是在近两年兴起的大模型技术浪潮中,很多原本就做出过重磅成果的人带着他们的研究经验来到字节跳动,将经验转化为一项又一项落地应用,将技术转化为真正的生产力,同时完成了自身的成长。
这些优秀的人才为何选择字节跳动?细想一番,不难分析出两方面因素。
首先,在各方研究者和从业者心中,字节跳动本身就是最具吸引力的科技公司之一。近年来,字节跳动在大模型等前沿赛道上一直在「饱和投入」,全面发力。
比如在模型层,2023 年只正式发布了语言模型的字节,在 2024 年迅速补全了图像、语音、音乐、视频、3D 等不同模态的生成式 AI 模型。在这一轮生成式 AI 浪潮中起步相对较晚的字节,已经成为目前拥有最全生成式 AI 模型、最多 AI 应用的技术公司。任何专业、任何志向的人才,都可以在字节跳动找到「用武之地」。
字节跳动在大模型基础研究方面的布局进展也很迅速。成立仅数月,豆包大模型团队就有 57 篇论文中选 ICLR、CVPR、NeurIPS 等顶会,研究成果包括下载量超百万的开源项目及 GitHub 万星爆款。
在浙商证券 2024 年底发布的一份报告中,字节跳动在 AI 上的研发投入显著领先于国内同行,2024 年资本开支达到 800 亿元,接近 BAT 三家的总和(约 1000 亿元)。而在已经到来的 2025 年,字节跳动资本开支有望达到 1600 亿元,其中约 900 亿元将用于 AI 算力的采购,700 亿元用于 IDC 基建以及网络设备。
虽然字节跳动官方声明称市场传言的资本开支并不准确,但随着豆包大模型日均调用量从 1200 亿 tokens 到 40000 亿的飞速提升,没有人会怀疑字节跳动在基础设施投入上的巨大决心。近日还有消息显示,字节跳动发布了自建数据中心变电站设计框架采购寻源公告。这一动作意味着字节跳动希望在电力供应上实现更大的自主权和可控性,同时适应业务扩张以及支持高算力需求。
规划和建设新的数据中心以支撑日益增长的 AI 计算需求,也是全球科技巨头目前的共同选择。2024 年 4 月份,微软与 OpenAI 计划投资 1000 亿美元打造「星际之门」超算,而 Meta、谷歌、亚马逊等科技巨头也都在数据中心的部署上雄心勃勃。在这个层面,字节跳动的竞争力毫不逊色。
有了雄厚的实力作为基础,技术人才的成长空间自然无限。
其次,飞速发展的 AI 业务,让字节跳动对人才的渴求远超于其他科技公司,也提供着极具竞争力的薪酬与回报。
字节跳动设置了众多人才项目,以增加对高端技术人才的吸引力。在面向在读博士生的奖学金类项目之外,字节跳动还有 Top Seed、筋斗云等人才计划。
比如,Top Seed 就是字节跳动豆包大模型团队面向校园优秀人才推出的专项。不同于一般人才项目的各种「硬性筛选条件」,Top Seed 更看重候选人能够「怀有科技改变世界的远大抱负,敢于创新」,能够参与行业顶尖的技术挑战和攻坚。
与此同时,一批业内大牛陆续加入字节跳动。据传,阿里通义大模型技术负责人周畅、零一万物技术联创黄文灏、谷歌 VideoPoet 负责人蒋路等已加入豆包大模型团队,更增添了字节跳动对技术人才的吸引力。
在与国内知名高校的产学研深度合作上,字节跳动也有大力投入。2024 年 10 月,清华大学智能产业研究院(AIR)与字节跳动在清华大学成立了「可扩展大模型智能技术联合研究中心」(SIALab),旨在基于大模型技术应用的广阔前景,推动更高效的创新与实践。2024 年 12 月,北京大学与字节跳动正式宣布成立豆包大模型系统软件联合实验室,实验室的科研工作将以字节跳动自研豆包大模型为基础。来自高校和企业的科研人员都将在实验室内,围绕大模型的训练、推理等关键技术展开深入研究。迄今,豆包大模型团队已与近 20 所高校深入合作,支持超过 40 位顶尖学者参与关键 AI 技术攻坚。
一家科技公司要想在竞争激烈的 AI 时代保持地位,归根结底是要拥有最优秀的一批「人才」。而字节跳动对 AI 技术研发和人才培养的全力投入,不仅将促进自身相关业务的快速发展,更将推动中国 AI 产业的整体进步。
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有