隐私元年如何保护用户隐私?计算机安全教母宋晓冬给出了她的答案

隐私元年如何保护用户隐私?计算机安全教母宋晓冬给出了她的答案
2019年01月20日 18:22 麻省理工科技评论

在2019年的全球新兴科技峰会上,华人计算机安全教母、区块链隐私保护公链平台Oasis Labs创始人宋晓冬(Dawn Song)表示,在进入21世纪后,数据隐私泄露事件频繁发生,从2013年雅虎30亿用户隐私被盗,到去年刚刚发生的万豪酒店5亿用户隐私泄露,无不标志着数据隐私问题的日益严峻。数据权利和隐私本来就是一项基本人权,实际上用户也在日益要求对于数据的自主权。

同时,伴随着2018年Facebook、Google关于用户隐私国会听证会的万众瞩目,数据隐私监管提上日程,以及区块链技术为数据隐私存储保护提供了新的技术选项,都意味着2019年将成为数据隐私元年。

在这个用户隐私元年,以区块链为基础的隐私存储保护技术成为保护用户隐私、建立“数据平权”的极其关键的基石。现有的区块链隐私保护技术需要解决三个问题:计算过程数据不外泄、计算结果不泄露隐私信息以及能够实现极短时间内规模化运算。

针对数据隐私保护的三个问题,Oasis Labs研发出的数据隐私存储规模化智能合约技术(Privacy-Preserving Smart Contracts at Scale),能够在不依赖于中心化权威的条件下,应用机器学习等技术,从而大规模自动执行编码过的隐私要求。

图 | Oasis Labs 的技术实现路径(图源:DeepTech)

实现大规模自动执行隐私存储任务,离不开受信任的执行环境,这个环境有赖于安全的硬件。Oasis Labs在2018年秋发布了为硬件商提供的硬件安全环境(secure enclave,安全飞地)——Key Stone,这是首个全栈式开源安全环境,能够在其平台上实现自动化的隐私存储。

为什么我们需要Key Stone?宋晓冬举了一个例子。

当研究者把数以千万记的用户数据输入神经网络学习模型,经过一番训练后,神经网络实际上还是能够记住原始数据。不单单是神经网络会记住原始数据,别有用心的攻击者仅仅是询问受训模型,就可以溯源到原始数据,而很多原始数据涉及到用户隐私。

那么究竟如何在深度学习中保护人们的数据隐私不会泄露?宋晓冬介绍了其差别化隐私(Differential Privacy)的受训神经网络,在差别化隐私这种方法保护敏感的输入信息后,攻击者便不能从受训模型中攫取到用户的隐私数据。

宋晓冬介绍,其差别化隐私神经网络的工作,旨在面向真实世界、为非专家提供差别化隐私的自动执行,同时能够支持应用者的大数据分析和机器学习工作。目前,他们的工作成果已经成功应用到了Uber和GDPR。

最后,宋晓冬介绍了数据隐私智能合约的具体应用场景。Oasis Labs正在建立一个名为Kara的代币化医疗数据市场,以解决目前医疗数据隔绝、“数据孤岛”彼此孤立和医疗研究缺乏样本的问题用。

图 | Dawn Song 发表演讲(图源:DeepTech)

在Kara这个APP上,用户主动拍照,上传其照片数据。之后APP自动处理并存储数据在公链平台上,研究者就可以着手写智能合约和未经训练的模型,并为此用户提供的数据付费。最后,用户得到研究者为此支付的代币,而研究者则得到受训优化的模型或者预测结果。在这个过程中,用户的数据是不会被泄露的,而研究者也得到了他们想要的东西,对于双方是一个双赢局面。

这还仅是区块链技术应用的一角,除医疗外,可以利用AI为提供个性化的金融服务和反欺诈服务等等,而各方的数据在这个过程中不会受到任何侵害和泄露,双方均有获益,这才是真正的AI民主。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部