公司不应为了获得 AI 的好处而将安全数据置于风险之中。以下是 Baklib 为给您带来 AI 创新并保护您的公司数据安全所采取的措施。
安全始终是 Baklib 的首要考虑因素,尤其是在客户数据安全方面。得益于人工智能的最新进展,科技界对安全性的关注从未如此严格。在我们努力发布 Baklib 中可以使用的不断增长的人工智能功能的同时,我们也在努力增强我们的安全功能。幸运的是,如果您已经拥有坚实的基础,那么这有点简单。
安全和保护的基础
Baklib 遵循保护客户数据的最佳做法。您可以在我们的安全页面上完整阅读有关我们的安全和合规做法,但您可以在此处简要了解您需要了解的内容。
无论是业务连续性还是楼宇访问、配置管理还是密钥轮换,我们都会监控标准并捕获工件以支持我们的合规性。我们会定期审查行业标准和隐私法规,并根据需要调整内部控制。除了我们的年度 SOC 2 审计以证明我们全年的安全监督外,我们一直在努力为您最重要的数据创建一个安全可靠的环境。
Baklib、AI 和您的公司数据
我们不仅注重安全,而且同样坚信创新。我们一直在寻找方法来集成新功能和新能力,从而为产品增加价值。不可否认,人工智能已经发展到可以合法补充许多 SaaS 产品(包括 Baklib)的地步。不考虑人工智能及其对 Baklib 的潜力绝对不是一种选择,这就是为什么我们如此努力地尽快将这些创新安全地带给我们的产品和客户。
生成式人工智能可能被证明是我们这个时代最具变革性的技术进步之一,但它也有其独特的问题。这让我们回到了客户数据的神圣性问题上。客户和公司对将敏感信息指向新的和未知的来源犹豫不决是很自然的。我们开始看到一些重复的问题:我的信息去哪儿了?它将如何使用?谁负责保护它?它会在那里保留多久?
当 Baklib 开始探索第三方 AI 服务时,我们制定了明确的安全原则,围绕三个核心主题:我们使用的平台、我们收集的客户数据以及我们管理数据存储和删除的方式。)
对第三方人工智能平台进行持续评估
需要明确的是:在未彻底审查其技术、安全合规性、服务条款和隐私惯例的情况下,我们不会允许任何AI 合作伙伴访问 Baklib 的宝贵数据。我们在与第三方合作时已经遵守了一套明确的标准,AI 供应商也不例外。我们将审查他们的业绩记录和基础设施的完整性,然后通过合同要求他们遵守隐私和安全规范。
这不是由一个人做出的决定,而是一个由各领域专家从安全角度共同协作的过程。我们会评估相关数据的重要性、公司的健康状况、托管和工具的完整性以及合规记录(例如:外部审计、渗透测试等)。供应商只有在获得我们首席技术官的正式认可后才可以接触 Baklib 生产数据,并且根据标准,该合作关系将至少每年重新验证一次。
使用更少的数据做更多的事情
由于人工智能训练模型的性质,数据安全在人工智能中变得更加复杂。供应商传统上处理或存储客户数据,而人工智能提供商则寻求通过整合尽可能多的数据集来训练他们的模型。
虽然训练模型是 AI 服务中自然而必要的一部分,但 Baklib 将仅根据手头的任务限制客户数据的发布。我们将只向第三方模型提供执行该功能所需的数据,并禁止将其用于大规模模型训练。这直接反映了 OpenAI 的数据使用政策,该政策规定:“默认情况下,OpenAI 不会使用 API 数据来训练 OpenAI 模型或改进 OpenAI 的服务产品。”
但即使在客户数据到达 OpenAI 之前,它也首先被限制在 Baklib 端绝对需要的数据上,从而将绝大多数信息保留在 Baklib 受保护的托管环境中。简而言之,我们不会简单地打开客户数据的闸门供 OpenAI 使用。相反,我们根据初始客户任务在内部检索和协调数据,只允许该信息部分进入 AI 流。
定期数据删除与维护
客户数据无法永久存在,我们将使滚动数据删除成为任何 AI 提供商关系或自托管解决方案的标准条款。我们将通过制定滚动删除规则来限制生成 AI 的数字领域。目标是保持对所有客户数据的积极控制,尽可能实施“生存时间”限制。
OpenAI 意识到许多用户不希望保存他们的历史记录,因此他们提供了删除过去提示的功能。同样,根据他们的使用条款,“当聊天记录被禁用时,我们将保留新的对话 30 天,并仅在需要监控滥用行为时才对其进行审查,然后永久删除。”
虽然人工智能通常会从积累和聚合尽可能多的数据中受益,但我们认为,对于 Baklib 用户而言,数据删除带来的安心感超过了无限期保留的好处。
人工智能和未来
生成式人工智能为用户检索和理解信息的方式提供了多种改进。虽然我们使用人工智能的方式仅受我们的想象力限制,但我们将确保以应有的谨慎和一致性来对待它。我们的第三方供应商流程经过了时间的考验(并且每年都会接受审核),人工智能提供商将与访问 Baklib 的任何其他供应商一样接受同样的审查。
在我们继续探索机器学习的潜在途径时,我们不会在此过程中损害我们的基本安全地位。我们明白,如果我们削弱了对产品的信任和信心,那么人工智能的好处就一无所获。我们仍然坚信一个基本事实,即现成的知识来源可以让人们发挥出最佳水平,我们只会在能够改进 Baklib 的范围内利用人工智能的能力。
亲身体验 Baklib 平台的强大功能——参加我们的交互式产品之旅!
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有