构建还是购买生成式人工智能?( 下)

构建还是购买生成式人工智能?( 下)
2023年08月19日 13:16 计算机世界

【导语】你可以通过获取、改造或从零构建你需要的模型来采用生成式人工智能。但你构建的越多,就需要更多的资源,甚至你购买的系统也需要构建工作。

微软人工智能平台公司副总裁 John Montgomery 表示:“虽然你可以使用任何内部数据也能立即提高准确性并减少幻觉,但当你添加矢量支持时,它能更有效地快速检索准确信息。这将为数据源(无论是内部文件共享中的文档还是 SQL 云数据库中的文档)创建一个矢量索引,并创建一个 API 端点,以便在应用程序中使用。”

松下正在利用结构化和非结构化数据为 ConnectAI 助手提供支持。同样,专业服务提供商安永正在将多个数据源串联起来,以构建聊天代理,Montgomery 称之为模型星座,其中一些可能是开源模型。他说:“有关公司健康计划涵盖多少副眼镜的信息可以是非结构化文档,而检查索赔的眼镜副数以及该福利还剩多少钱则是结构化查询。”

使用和保护数据

Lamarre 表示,采用 shaper 方法的公司希望数据环境完全控制在他们的内部环境,并将模型引入他们的数据中,而不是相反。虽然你在生式成人工智能工具的消费者版本中键入的任何内容都被用来训练驱动它们的模型(免费服务的常见权衡),但谷歌、微软和 OpenAI 都表示,商业客户数据没有被用来训练模型。

例如,你可以在自己的数据上运行 Azure OpenAI,而无需进行微调,即使你选择对组织的数据进行微调,这种定制也会像数据一样留在你的 Microsoft 租户内部,不会应用到核心基础模型中。Mukaino 说:“数据使用政策和内容过滤能力是我们决定继续进行的主要因素。”

尽管生式成人工智能的版权和知识产权方面在很大程度上尚未经过法院的测试,但商业模型的用户拥有其模型的输入和输出。拥有特别敏感信息的客户,如政府用户,甚至可以关闭日志记录,以避免通过捕获查询内容的日志出现最轻微的数据泄露风险。

无论你是购买还是构建 LLM,组织都需要更多地考虑文档隐私、授权和治理以及数据保护。Lamarre 表示,法律和合规团队已经需要参与ML的使用,但生式成人工智能正在进一步推动公司的法律和合规化领域。

与批量数据的监督学习不同,LLM 将每天用于新文档和数据,因此你需要确保数据仅对本应访问的用户可用。如果不同的法规和法规遵从性模型适用于你业务的不同领域,你不会希望它们得到相同的结果。

来源和验证

将内部数据添加到生成式人工智能工具中, Lamarre 称其为“顾问的副驾驶”,该工具可以校准为使用公共或麦肯锡的数据,产生了很好的答案,但该公司仍然担心这些数据可能是捏造的。他说:“我们不能犯错”。为了避免这种情况,公司引用了答案所依据的内部参考资料,使用该参考资料的顾问有责任检查其准确性。

但 Karaboutis 指出,员工在网上做研究时已经承担了这一责任。她说:“随着这些语言模型的不断学习和建立,你需要求知欲和健康的怀疑态度。”作为高级领导层的学习练习,她的团队制作了一段深度伪造的视频,视频中她用生成的语音阅读人工智能生成的文本。

她提醒说,表面上可信的内部数据也可能是错误或过时了。她说:“有多少时候,你的政策文件还没有从内部网上删除,或者版本控制不到位,然后 LLM 找到它们。我们需要研究归因,但也要确保我们清理了数据。”

负责任地采用生成式人工智能与低代码的经验教训如出一辙,比如了解哪些数据和应用正在连接到这些服务中:这关系到加强工作流程、加速人们已经在做的事情,以及释放新的能力,同时实现大规模自动化,但仍有人类专家参与其中。

塑造者可以脱颖而出

Mukaino 说:“我们相信生式成人工智能是有益的,因为它比传统的工具和服务有更广泛的使用范围和灵活性,所以它更多的是关于如何利用工具创造竞争优势,而不仅仅是使用它这一事实。”

用生成式人工智能重塑客户支持、零售、制造、物流或财富管理等特定行业的工作负载需要大量工作,制定使用政策和监测技术对工作流程和结果的影响也需要大量工作。为这些资源和时间安排预算也是至关重要的。归根结底,你能比那些购买模型和工具的竞争对手更快地构建和重建吗?这些模型和工具可以让他们直接创建应用程序,并让他们组织中的更多人试验生式成人工智能的功能?

OpenAI 的通用 LLM,以及在其工作基础上构建的更专业的 LLM,如 GitHub Copilot,随着大量用户的使用而有所改进:自去年推出以来,GitHub Copilot 生成的代码的准确性显著提高。你可以花 50 万美元得到一个只与上一代商业模型匹配的模型,虽然基准测试并不总是一个可靠的指引,但这些模型在基准测试中仍然比开源模型显示出更好的结果。

Lamarre 警告说,随着技术的发展,要做好重新审视建筑或购买决策的准备。他说:“问题归根结底是‘如果我自建或购买,我的竞争优势能有多大’,我认为这个界限会随着时间的推移而改变。”

如果你在构建自己的生成模型方面投入了大量的时间和资源,那么重要的是不仅要衡量它们对你的组织的贡献,还要衡量它们与你的竞争对手今天可能采用的商用模型相比有多大差距,因为你的竞争对手只需为大约一页生成文本支付 10 到 15 美分,而不是你启动项目时他们所能获得的。

主要投资

Montgomery 表示:“构建对话将留给那些可能已经在构建和设计大型语言模型方面拥有大量专业知识的人。”他指出,META 在 Azure 上构建 LLM,而 Anthropic、Cohere 和 Midtravel 则使用谷歌云基础设施来培训他们的 LLM。

一些组织确实拥有这方面的资源和能力,而那些需要为某个领域提供更专业的 LLM 的组织可能会进行必要的重大投资,以超过 GPT4 等通用模型已经合理的性能。

训练你自己版本的开源 LLM 需要非常大的数据集:虽然你可以从 Hugging Face 这样的地方获得这些数据集,但你仍然依赖于其他人策划的数据集。此外,你仍然需要数据管道来清理、消除重复、预处理和标记数据,还需要用于培训、监督微调、评估和部署的重要基础设施,以及为每一步做出正确选择的深厚专业知识。

有多个集合,其中包含数百个预训练的 LLM 和其他基础模型,你可以从这些集合开始。有些是通用的,有些则更有针对性。例如,生成式人工智能初创公司 Docugami 五年前开始训练自己的 LLM,专门为业务文档生成 XML 语义模型,标记表格、列表和段落等元素,而不是大多数 LLM 使用的短语和句子。根据这一经验,Docugami 首席执行官 Jean Paoli 建议,专业 LLM 将优于为另一目的创建的更大或更昂贵的 LLM。

他说:“在过去的两个月里,人们已经开始明白,LLM,无论是否开源,都可能具有不同的特性,甚至可以有更适合特定场景的更小的 LLM。”但他补充,大多数组织不会创建自己的 LLM,甚至可能不会创建自己版本的 LLM。

Lamarre 补充道,只有少数公司会拥有根据互联网知识和目的进行校准的大型语言模型。他说:“在公司内部校准的语言模型规模会小得多。如果决定走这条路,首席信息官们就需要考虑什么样的 LLM 最适合他们的应用场景,面对如此多的选择,Aviary 这样的工具可以提供帮助。考虑模型的来源及其训练数据。Montgomery 指出,这些都是企业在了解开源项目和组件时要问的类似问题。"从开源革命中获得的所有经验都在人工智能领域发生,而且发生得更快。”

IDC 的 AI Infrastructure View 基准显示,正确处理人工智能堆栈是组织应该做出的最重要的决策之一,而系统不足是人工智能项目失败的最常见原因。微软的 Megatron-Turing NLG 530B 模型需要 4000 多个英伟达A100 GPU 才能完成训练。虽然有一些工具可以提高训练效率,但它们仍然需要大量的专业知识--即使是微调的成本也很高,因此你需要强大的人工智能工程技能来降低成本。

Docugami 的 Paoli 预计,大多数企业将购买生成式人工智能模型,而不是构建,无论这意味着采用开源模型还是支付商业服务。“构建将更多地是把已经存在的东西组合在一起。”这包括利用这些新兴的堆栈,大大简化从开源和商业选项组合中组装解决方案的过程。

因此,无论你购买还是构建底层人工智能,都应将采用或创建的生成式人工智能工具视为产品,进行所有常规的用户培训和验收测试,以确保它们能够有效使用。 Paoli 警告说,对于它们能够提供什么,一定要实事求是。

他说:“CIO 们需要明白,他们不会购买一个 LLM 来改变一切或为他们完成数字化转型。”

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部