有些深度学习算法不应该因为数据不足而被怀疑

有些深度学习算法不应该因为数据不足而被怀疑
2018年11月20日 14:14 五金堂

在计算的早期,有一个缩写词:GIGO。它代表“进”,“出”。大型机器行业的少数人明白,如果进入系统的数据不是很好,那么出来的数据就不是准确的信息。PC的出现意味着越来越多的人开始使用电脑,他们中的大多数人对电脑的理解远不如早期的程序员和用户。

一位权威人士指出,GIGO开始意味着Garbage In,Gospel Out。 如今,深度学习的一个风险就是这些含义的必然结果。

从最早的时候就开始出现的编程就是人类编写行逻辑序列。这些算法构建在代码行中,易于查看和分析。代码遵循的规则是预先确定的路径。虽然文档经常出现在理论上而不是实践中,但是其他人可以检查代码,并且可以自动测试代码的完整性,并通过测试来验证代码。代码对几乎所有的编码器都是透明的。然而,随着深度学习的到来,这种情况正在改变。

在深度学习系统中,多层中有许多节点。每个节点通过培训与其他节点交互,以执行问题的一小部分。算法相当复杂,难以文档化或定义。这是所知道的标准的“黑匣子”问题。

干净数据是构建精确深度学习系统的必要组成部分。市场上一些令人惊叹的可视化工具也是如此。随着深度学习系统走出学术界和大公司的沙箱,学习如何分析和记录神经网络设计和算法的需求将变得越来越重要。如果不理解算法,最干净的数据也可能会导致糟糕的决策。如果不能证明这些算法是可信的,消费者或政府机构就会放慢对这些算法的采用。

如果深度学习行业没有学会如何使黑匣子更加透明,那么干净的数据只会导致GIGO,Gospel In,Garbage Out的重新定义。

原文地址:https://www.ait800.com/jiqixuexi/606.html

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部