原文:
www.kdnuggets.com/2020/10/6-lessons-6-months-data-scientist.html
评论
照片由 Artem Beliaikin 提供,来源于 Unsplash。
1. Google 网络安全证书 - 快速进入网络安全职业的快车道。
2. Google 数据分析专业证书 - 提升你的数据分析技能
3. Google IT 支持专业证书 - 支持你所在组织的 IT
自从我六个月前从顾问转变为数据科学家以来,我的工作满意度比我想象的要高。为了庆祝我在这个引人入胜的领域的第一个半年,这里是我在过程中收集到的六个教训。
你可能知道,查看 arXiv 是个好主意。那里充满了卓越的想法和最前沿的进展。
不过,我对这个平台上所获得的可操作性建议感到非常惊喜。例如,我可能没有访问到16 个 TPU 和$7k 来从头训练 BERT,但谷歌大脑团队推荐的超参数设置是一个很好的开始微调的起点(见附录 A.3)。
希望你喜欢的新包会在 arXiv 上有一篇启发性的读物,为其文档增添色彩。例如,我通过阅读关于 ktrain 的极易读且非常有用的文档学会了如何部署 BERT,该库基于 Keras,提供了一个简化的机器学习接口,适用于文本、图像和图形应用。
播客虽然不能提高你的编码技能,但能提升你对机器学习领域的最新进展、流行包和工具、未解答的问题、新的解决旧问题的方法、以及职业中普遍存在的心理不安等方面的理解。
我日常收听的播客帮助我保持了对数据科学快速发展的参与感和更新感。
目前我最喜欢的播客是:2020 年提升数据科学学习的资源
最近,我特别兴奋地了解到自然语言处理的进展,关注最新的 GPU 发展和云计算,并质疑人工神经网络与神经生物学之间的潜在共生关系。
根据我在这片抱怨的海洋中搜寻智慧巨鱼的经验,以下是三个潜在的收获:
-
我经常从别人使用和/或误用包的方式中得到灵感。
-
了解包在什么情况下容易崩溃也是有用的,这样可以培养你对自己工作中潜在失败点的感知。
-
在你设置环境并进行模型选择的预工作阶段,你最好考虑开发者和社区的响应性,然后再将开源工具添加到你的管道中。
我在过去六个月里做了很多自然语言处理,所以让我们再谈谈 BERT。
在 2018 年 10 月,BERT问世并震撼了世界。就像超人在一次跃过高楼后那样(很疯狂地想象超人最初被引入时不能飞!)
BERT 代表了机器学习在处理文本任务能力上的一步飞跃。其最先进的结果基于其变换器架构在Google 的 TPU 计算芯片上运行的并行性。
第一次在 GPU 上训练的感觉。通过GIPHY。
理解 TPU 和基于 GPU 的机器学习的含义对提升你作为数据科学家的能力很重要。这也是提高你对machine learning 软件与其运行的硬件物理限制之间不可分割的关系的直觉的关键一步。
随着摩尔定律在 2010 年左右逐渐失效,需要越来越有创意的方法来克服数据科学领域的局限,继续向真正智能系统的目标迈进。
来自Nvidia 演示的图表,显示了每平方毫米的晶体管数量按年变化。这突显了 2010 年左右晶体管数量的停滞和基于 GPU 的计算的兴起。
我对ML 模型-计算硬件共同设计的兴起持乐观态度,对sparsity and pruning的依赖增加,甚至是“无专用硬件”机器学习也充满期待,这些都可能打破当前以 GPU 为中心的主导地位。
我们的年轻领域可以从 2010 年代中期社会科学中的可重复性危机中学到很多(在某种程度上,这一危机仍在继续):
“p-value hacking” 对于数据科学家。 Randall Monroe 的 xkcd 漫画。
2011 年,一项学术众包合作旨在复制 100 个已发表的实验和相关的心理学研究。结果失败了——只有 36%的重复实验报告了统计显著的结果,而原始实验的统计显著性为 97%。
心理学的可重复性危机揭示了将“科学”与不稳定的方法论结合的危险和责任。
数据科学需要可测试、可重复的方法来解决问题。为了消除 p-hacking,数据科学家需要设定对数据中预测特征的调查限制,以及评估指标时测试的数量限制。
有许多工具可以帮助进行实验管理。我有使用ML Flow的经验,这篇优秀的文章由Ian Xiao撰写,还提到了其他六种工具,以及关于机器学习工作流其他四个领域的建议。
我们还可以从数据科学领域近年来的许多失误和算法不当行为中汲取经验教训。
例如,有关方面无需再找其他地方,就可以看到社会工程推荐引擎、歧视性的信用算法和加深现状的刑事司法系统。我写过一些关于这些社会弊病以及如何通过有效的人本设计来避免它们的文章。
好消息是,有许多聪明且积极的从业者正在努力解决这些挑战,并防止未来公众信任的破裂。查看 Google’s PAIR、 Columbia’s FairTest 和 IBM’s Explainability 360。与社会科学研究人员的合作可以取得丰硕的成果,例如这个关于 算法审计歧视的项目。
当然,我们还可以从社会科学中学到许多其他东西,例如如何做一个有效的演讲。
学习社会科学对于理解人类对数据推断的直觉何时可能出错至关重要。人类在某些情况下非常擅长从数据中得出结论。我们推理的破坏方式是高度系统化和可预测的。
我们对这一人类心理学方面的理解大部分来自于丹尼尔·卡尼曼的优秀著作Thinking Fast and Slow。这本书应该成为任何对决策科学感兴趣的人的必读书。
卡尼曼研究中的一个与你的工作可能立即相关的元素是他对锚定效应的处理,锚定效应是“当人们考虑一个未知量的特定值时发生的现象。”
在传达建模结果(即表示准确性、精确度、召回率、f-1 等的数字)时,数据科学家需要特别注意管理期望。提供一种手动调整的程度是有用的,例如“我们仍在不断破解这个问题,这些指标可能会有所变化”到“这是最终产品,这就是我们期望我们的 ML 解决方案在实际环境中的表现”。
如果你要展示中间结果,卡尼曼建议为每个指标提供一个值范围,而不是具体的数字。例如,“f-1 分数,代表本表中其他指标(精确度和召回率)的调和均值,大致在 80–85% 之间。这表明还有改进的空间。”这种“手动调整”的沟通策略降低了观众在锚定你所分享的具体值的风险,而是能得到关于结果的方向性正确的信息。
在开始工作之前,确保你所解决的问题是值得解决的。
你的组织并没有付钱让你构建一个 90%准确的模型,写报告,在 Jupyter Notebook 中瞎折腾,甚至让你启发自己和他人了解 图数据库的准魔法属性。
你的任务是将数据与业务结果连接起来。
原文。已获许可转载。
个人简介: 妮可·贾纳威·比尔斯 是一名机器学习工程师,拥有商业咨询经验,精通 Python、SQL 和 Tableau,同时在自然语言处理(NLP)、云计算、统计测试、定价分析和 ETL 过程方面具有业务经验。妮可专注于将数据与业务结果相连接,并不断发展个人技术技能。
相关: