Skip to content

Commit

Permalink
结构调整
Browse files Browse the repository at this point in the history
  • Loading branch information
shataowei committed Nov 20, 2019
1 parent e0e54c2 commit d2cb0bc
Show file tree
Hide file tree
Showing 2 changed files with 28 additions and 28 deletions.
40 changes: 20 additions & 20 deletions .idea/workspace.xml

Some generated files are not rendered by default. Learn more about how customized files appear on GitHub.

16 changes: 8 additions & 8 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -222,8 +222,8 @@
- [常用回归问题的损失函数](机器学习/集成学习/GBDT.md#L164)
- [常用分类问题的损失函数](机器学习/集成学习/GBDT.md#L164)
- [什么是gbdt中的残差的负梯度](机器学习/集成学习/GBDT.md#L164)
- [如何用残差的负梯度实现gbdt](机器学习/集成学习/GBDT.md#L164)
- [拟合残差的负梯度为什么是可行的](机器学习/集成学习/GBDT.md#L164)
- [如何用损失函数的负梯度实现gbdt](机器学习/集成学习/GBDT.md#L164)
- [拟合损失函数的负梯度为什么是可行的](机器学习/集成学习/GBDT.md#L164)
- [即便拟合负梯度是可行的,为什么不直接拟合残差? 拟合负梯度好在哪里](机器学习/集成学习/GBDT.md#L164)
- [Shrinkage收缩的作用](机器学习/集成学习/GBDT.md#L164)
- [feature属性会被重复多次使用么](机器学习/集成学习/GBDT.md#L164)
Expand All @@ -232,12 +232,12 @@
- [gbdt的优缺点](机器学习/集成学习/GBDT.md#L164)
- [gbdt和randomforest区别](机器学习/集成学习/GBDT.md#L164)
- [GBDT和LR的差异](机器学习/集成学习/GBDT.md#L164)
- [xgboost对比gbdt/boosting Tree有了哪些方向上的优化](机器学习/集成学习/xgboost.md#L164)
- [xgboost优化目标/损失函数改变成什么样](机器学习/集成学习/xgboost.md#L164)
- [xgboost如何使用MAE或MAPE作为目标函数](机器学习/集成学习/xgboost.md#L164)
- [xgboost如何寻找分裂节点的候选集](机器学习/集成学习/xgboost.md#L164)
- [xgboost如何处理缺失值](机器学习/集成学习/xgboost.md#L164)
- [xgboost在计算速度上有了哪些点上提升](机器学习/集成学习/xgboost.md#L164)
- [xgboost对比gbdt/boosting Tree有了哪些方向上的优化](机器学习/集成学习/Xgboost.md#L164)
- [xgboost优化目标/损失函数改变成什么样](机器学习/集成学习/Xgboost.md#L164)
- [xgboost如何使用MAE或MAPE作为目标函数](机器学习/集成学习/Xgboost.md#L164)
- [xgboost如何寻找分裂节点的候选集](机器学习/集成学习/Xgboost.md#L164)
- [xgboost如何处理缺失值](机器学习/集成学习/Xgboost.md#L164)
- [xgboost在计算速度上有了哪些点上提升](机器学习/集成学习/Xgboost.md#L164)
- FM/FFM
- SVM
- [简单介绍SVM](机器学习/支持向量机/支持向量机.md#L164)
Expand Down

0 comments on commit d2cb0bc

Please sign in to comment.