原文:
www.kdnuggets.com/2018/11/machine-learning-model-understandable-poll-results.html
在 2018 年构建机器学习/数据科学模型时,模型可被人类理解/解释的重要性有多大?
基于超过 500 票的总体结果显示,对于约 37%的投票者来说,这一点始终重要,另有 48%的人表示它“频繁”重要,因此大约 85%的受访者认为这点始终或频繁重要。仅有 2%的人表示这点从未重要。
图 1:机器学习模型可理解性的重要性
调查还询问了就业类型,整体分布如下
-
公司或自雇,69%
-
政府/非营利组织,5%
-
学生,15%
-
学术界/大学,9%
-
其他,2%
根据就业类型,理解机器学习结果的重要性是否有所不同?图 2 展示了按就业类型的结果,排除了其他类别。
图 2:按就业类型划分机器学习模型可理解性的重要性
颜色表示重要性:橙色:“始终”,绿色:“频繁”,浅灰色:“偶尔”,深灰色:“从不”。
我们注意到,来自公司或自雇的受访者给出的“频繁”回答的比例最高——51.6%,而学生的比例最低——仅为 36.7%。
学术研究人员表示“始终”重要的比例高于其他任何群体,这表明机器学习的理解是一个活跃的研究领域。
然而,总体而言,所有群体中理解性始终或频繁重要的比例都超过 80%。不出所料,唯一的例外是学生,其重要性稍低——仅为 76%。
按地区划分的整体分布如下
-
美国/加拿大,36%
-
欧洲,34%
-
亚洲,18%
-
拉丁美洲,6.0%
-
非洲/中东,3.7%
-
澳大利亚/新西兰,2.8%
我们接下来查看四个回答最多的地区的答案分布。
鉴于GDPR于 2018 年 5 月 25 日在欧洲生效,理解机器学习在欧洲是否尤为重要?
图 3:按地区划分机器学习模型可理解性的重要性
出人意料的是,对可理解性最担忧的地区不是欧洲,而是美国/加拿大。将“总是”和“经常”两种回答合并,我们看到美国/加拿大的受访者最为担忧,达到 88.5%,其次是欧洲:81.9%,亚洲:81.0%,拉丁美洲:78.2%。其他两个地区的受访者数量太少,无法进行统计分析。
相关:
1. 谷歌网络安全证书 - 快速进入网络安全职业生涯
2. 谷歌数据分析专业证书 - 提升你的数据分析技能
3. 谷歌 IT 支持专业证书 - 支持你的组织的 IT 工作