原文:
www.kdnuggets.com/2023/01/explainable-ai-10-python-libraries-demystifying-decisions.html
作者提供的图片
XAI 是一种人工智能,允许人类理解模型或系统的结果和决策过程。
1. 谷歌网络安全证书 - 快速进入网络安全职业生涯。
2. 谷歌数据分析专业证书 - 提升您的数据分析技能
3. 谷歌 IT 支持专业证书 - 支持您的组织的 IT
可解释人工智能从可解释的数据和清晰、可解释的特征工程开始。
当选择适用于特定问题的模型时,通常最好使用最具可解释性的模型,同时仍能实现良好的预测结果。
这包括像扰动这样的技术,即分析单个变量对模型输出的影响,如训练后的 SHAP 值。
我找到这 10 个用于人工智能解释性的 Python 库:
SHAP 是一种模型无关的方法,通过分解每个特征的贡献并为每个特征分配分数来工作。
LIME 是另一种模型无关的方法,通过局部近似模型的行为来工作,围绕特定的预测。
Eli5 是一个用于调试和解释分类器的库。它提供特征重要性分数,以及 scikit-learn、Keras、xgboost、LightGBM、CatBoost 的“原因代码”。
Shapash 是一个 Python 库,旨在使机器学习对所有人都可解释和易于理解。 Shapash 提供几种类型的可视化,具有明确的标签。
Anchors 是一种生成可供人类理解的规则的方法,可以用来解释机器学习模型的预测。
XAI 是一个用于解释和可视化机器学习模型预测的库,包括特征重要性分数。
BreakDown 是一个可以用来解释线性模型预测的工具。它通过将模型输出分解为每个输入特征的贡献来工作。
interpret-text 是一个用于解释自然语言处理模型预测的库。
iml 目前包含 Shap 项目的接口和 IO 代码,并且可能也会为 Lime 项目提供相同的功能。
aix360 包含一套全面的算法,涵盖不同的维度
OmniXAI(全称为 Omni eXplainable AI)解决了实践中解释机器学习模型所产生判断的若干问题。
我是否遗漏了任何库?
来源
玛丽亚姆·米拉迪 是一位人工智能和数据科学专家,拥有机器学习和深度学习的博士学位,专注于自然语言处理和计算机视觉。她拥有 15 年以上的经验,成功开发了超过 40 个项目。她曾为 12 家不同的组织工作,涉及金融犯罪检测、能源、银行、零售、电子商务和政府等多个行业。