如何解释Al的不可解释性

如何解释Al的不可解释性
2022年08月19日 08:19 经济观察报

何宝宏/文

本文核心假设:用混沌理论,可以解释AI的不可解释性。

有广义的解释和狭义的解释两种。

广义地,指提升AI算法、产品和服务做出决策时的透明度和公平性,以防算法偏见和打开算法黑箱,助力用户的信任和监管的合规性。这种理解方式多见于社会、法律和政府层面的各类文件,比如联合国UNESCO的《人工智能伦理建议书》等。

狭义地,指一个端到端的AI深度学习算法,改变其算法模型中的任意一个权重、结点或层数,可能都会对整个模型的表现产生难以预测的影响。即使是模型的设计者和训练者,也无法预先知道。因此,深度学习也被戏称为“调参学”、“玄学”,被说科学就连工程学都算不上,因此AI算法工程师也被戏称为“炼丹师”。

如果说广义“可解释性”,面向的是大众和监管机构的,已经超出了AI本身,针对的是算法黑箱。那么,狭义的可可解释性,则面向的是学界和产业界,仅针对深度学习的“算法幽灵”。

牛顿力学将人类带到了一个确定性的世界,但量子力学又将人类又带到了不确定的概率世界。对应地,计算机和传统算法将数字世界带到了一个确定性的时代,而大数据和深度学习算法又将数字世界带到了“不可解释”的“概率”新阶段。

这让我想起了近30年来才兴起的混沌理论。量子力学质疑微观世界的物理因果律,混沌理论否定了包括宏观世界拉普拉斯(Laplace)式的决定型因果律。

这个理论可以用来解释AI的不可解释性。

机器只能处理“关联关系”而无法理解因果关系,更无法判断学习结果正确与否,工程师调参基本靠直觉,是否已经学习到中“真经”也是靠人的判断,因此学习结果正确只是概率问题,“碰巧”正确而已,因此稍微换下参数环境就又不可预期了。

混沌理论认为,许多自然现象即使可以化为单纯的数学公式,但是其行径却无法加以预测。

用于解释AI的不可解释性,机器学习被化简为单纯的算法模型,但深度学习的行径却无法加以预测。

深度学习初始条件或权重十分微小的变化和调整,经过多层网络、多结点的不断反馈和放大,对其未来状态会造成极其巨大的差别。

混沌的发现,提醒我们对因果关系需要再认识。过去认为,简单的原因必定产生简单的结果,复杂的结果必然有复杂的原因。

但混沌理论告诉AI,在一个复杂的反馈系统中,简单的参数调整也可以产生复杂的结果,仅仅知道确定性的算法模型,不等于能够预测AI的行为。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部