- 《斯坦福大学深度学习基础教程》 Andrew Ng(吴恩达)
- 机器学习 吴恩达 Coursera个人笔记
- 深度学习 吴恩达 个人笔记
- Practical Deep Learning for Coders, v3
- 深度学习 李飞飞 已授权个人翻译笔记
- 百页机器学习
- MIT深度学习基础-2019视频课程
- 1. 《深度学习》 Yoshua Bengio.Ian GoodFellow
- 2. 《机器学习》 周志华
- 3. 《神经网络与深度学习》 Michael Nielsen
- 5. 《模式识别与机器学习》 Christopher Bishop
- 6. 《Tensorflow实战Google深度学习框架》 郑泽宇 顾思宇
- 7. 《机器学习实战》 PelerHarrington
- 8. 机器学习 吴恩达 cs229个人笔记
- 12. 台湾大学(NTU)李宏毅教授课程
- 13. 《自然语言处理》Jacob Eisenstein
- 14. 《强化学习》
- 15. hangdong的深度学习博客,论文推荐
- 16. CS20:Tensorflow for DeepLearning Research
- 17. CS321-Hinton
- 18. 深度学习思维导图
- 19. CS230: Deep Learning
- 20. CS294-112
- 1. 94页论文综述卷积神经网络:从基础技术到研究前景
- 2. 从LeNet-5到DenseNet
- 3. CNN图像分割简史:从R-CNN到Mask R-CNN(译)
- 4. 深度学习之目标检测的前世今生(Mask R-CNN)
- 5. 纵览轻量化卷积神经网络:SqueezeNet、MobileNet、ShuffleNet、Xception
- 6. 深度学习目标检测模型全面综述:Faster R-CNN、R-FCN和SSD
- 7. 图像语义分割(Semantic segmentation) Survey
- 7. 从RCNN到SSD,这应该是最全的一份目标检测算法盘点
- 8. 图像语义分割(Semantic segmentation) Survey
- 9. 语义分割 发展综述
- 深度学习分类网络
- 卷积神经网络结构演变(form Hubel and Wiesel to SENet)
- 从VGG到NASNet,一文概览图像分类网络
- From RCNN to YOLO:上,下
- 后 R-CNN时代, Faster R-CNN、SSD、YOLO 各类变体统治下的目标检测综述:Faster R-CNN系列胜了吗?
- 目标检测-20种模型的原味代码汇总
- 目标检测算法综述三部曲
- 如何走近深度学习人脸识别?你需要这篇超长综述 | 附开源代码
- 深度学习图像超分辨率综述
- 卷积神经网络工作原理
- 变形卷积核、可分离卷积
- 对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解
- 各种卷积
- 卷积有多少种?一文读懂深度学习中的各种卷积
- 反卷积
- Convolution Network及其变种(反卷积、扩展卷积、因果卷积、图卷积)
- Dilated/Atrous conv 空洞卷积/多孔卷积
- CNN模型之ShuffleNet
- 一文简述ResNet及其多种变体
- ResNet解析
- 将CNN引入目标检测的开山之作:R-CNN
- 深度学习(十八)基于R-CNN的物体检测
- R-CNN论文详解
- 深度学习(六十四)Faster R-CNN物体检测
- 先理解Mask R-CNN的工作原理,然后构建颜色填充器应用
- 人脸检测和识别算法综述
- 语义分割卷积神经网络快速入门
- 图像语义分割的工作原理和CNN架构变迁
- CapsNet入门系列
- YOLO
- 目标检测|YOLOv2原理与实现(附YOLOv3)
- 目标检测模型YOLO v3问世
- Attention, 1,2,3,4,5
- 读取器读取原始数据(例如源语句中的源词)并将其转换为分布式表示,其中 一个特征向量与每个词的位置相关联。
- 存储器存储读取器输出的特征向量列表。这可以被理解为包含事实序列的存储 器,而之后不必以相同的顺序从中检索,也不必访问全部。
- 最后一个程序利用存储器的内容顺序地执行任务,每个时间步聚焦于某个存储 器元素的内容(或几个,具有不同权重)。
- 一文读懂卷积神经网络中的1x1卷积核
- 目标检测之CornerNet, 1, 2, 3
- 人群计数, 1, 2, 3
- RelationNetwork
- ShuffleNet V2和四个网络架构设计准则
- 【Tensorflow】tf.nn.depthwise_conv2d如何实现深度卷积?
- Tensorflow】tf.nn.atrous_conv2d如何实现空洞卷积?
- 【Tensorflow】tf.nn.separable_conv2d如何实现深度可分卷积?
- 【TensorFlow】tf.nn.conv2d_transpose是怎样实现反卷积的?
- 千奇百怪的GAN变体
- The GAN Landscape:Losses, Architectures, Regularization, and Normalization
- 深度学习新星:GAN的基本原理、应用和走向
- 1. GAN原理学习笔记
- 2. 极端图像压缩的对抗生成网络
- 3. 台湾大学李宏毅GAN教程
- 4. 2017年GAN 计算机视觉相关paper汇总
- 5. 在Keras上实现GAN:构建消除图片模糊的应用
- 6. CycleGAN:图片风格,想换就换 | ICCV 2017论文解读
- 7. Wasserstein GAN
- 用变分推断统一理解生成模型(VAE、GAN、AAE、ALI)
- 完全图解RNN、RNN变体、Seq2Seq、Attention机制
- 循环神经网络(RNN, Recurrent Neural Networks)介绍
- RNN以及LSTM的介绍和公式梳理
- 深度学习其五 循环神经网络
- 用循环神经网络进行文件无损压缩:斯坦福大学提出DeepZip
- 吴恩达序列建模课程
- Word2Vec
- 1. 优化算法纵览
- 2. 从梯度下降到Adam
- 3. 从梯度下降到拟牛顿法:盘点训练神经网络的五大学习算法
- 4. 正则化技术总结
- 5. 最优化算法系列(math)
- 6. 神经网络训练中的梯度消失与梯度爆炸
- 7. 神经网络的优化及训练
- 8. 通俗讲解查全率和查准率, 全面梳理:准确率,精确率,召回率,查准率,查全率,假阳性,真阳性,PRC,ROC,AUC,F1
- 9. 激活函数一览
- 10. Coursera吴恩达《优化深度神经网络》课程笔记(3)-- 超参数调试、Batch正则化和编程框架
- 11. 机器学习各种熵
- 12. 距离和相似性度量
- 13. 机器学习里的黑色艺术:normalization, standardization, regularization
- 14. LSTM系列的梯度问题
- 15. 损失函数整理
- 16. 详解残差块为何有助于解决梯度弥散问题
- 17. FAIR何恺明等人提出组归一化:替代批归一化,不受批量大小限制
- 18. Batch Normalization(BN):1 ,2 ,3 ,4 , 5, 6, 7
- 19. 详解深度学习中的Normalization,不只是BN
- 20. BFGS
- 21. 详解深度学习中的梯度消失、爆炸原因及其解决方法
- 22. Dropout, 1, 2, 3
- 训练的神经网络不工作?一文带你跨过这37个坑
- 深度学习与计算机视觉系列(8)_神经网络训练与注意点
- 神经网络训练loss不下降原因集合
- 深度学习:欠拟合问题的几种解决方案
- 机器学习:如何找到最优学习率及实现
- 不平衡数据集处理方法, 其二
- 同一个神经网络使用不同激活函数的表达能力是否一致
- 梯度下降优化算法纵览, 1, 2
- 论文笔记之数据增广:mixup
- 避坑指南:数据科学家新手常犯的13个错误
- 凭什么相信CNN的结果?--可视化
- 大卷积核还是小卷积核? 1, 2
- 模型可解释性差?你考虑了各种不确定性了吗?
- 模型汇总-14 多任务学习-Multitask Learning概述
- [译]深度神经网络的多任务学习概览(An Overview of Multi-task Learning in Deep Neural Networks)
- 1. 迁移学习:经典算法解析
- 2. 什么是迁移学习 (Transfer Learning)?这个领域历史发展前景如何?
- 3. 迁移学习个人笔记
- 迁移学习总结(One Shot Learning, Zero Shot Learning)
- Domain Adaptation视频教程(附PPT)及经典论文分享
- 模型汇总15 领域适应性Domain Adaptation、One-shot/zero-shot Learning概述
- 【深度学习】论文导读:无监督域适应(Deep Transfer Network: Unsupervised Domain Adaptation)
- 【论文阅读笔记】基于反向传播的无监督域自适应研究
- 【Valse大会首发】领域自适应及其在人脸识别中的应用
- CVPR 2018:基于域适应弱监督学习的目标检测
- 强化学习(Reinforcement Learning)知识整理
- 强化学习从入门到放弃的资料
- 强化学习入门
- 强化学习——从Q-Learning到DQN到底发生了什么?
- 从强化学习到深度强化学习(上)
- 从强化学习到深度强化学习(下)
- 一文带你理解Q-Learning的搜索策略
- 马尔科夫决策过程之Markov Processes(马尔科夫过程)
- 马尔科夫决策过程之Markov Reward Process(马尔科夫奖励过程)
- 马尔科夫决策过程之Bellman Equation(贝尔曼方程)
- 马尔科夫决策过程之Markov Decision Process(马尔科夫决策过程)
- 马尔科夫决策过程之最优价值函数与最优策略
- 基于word2vec训练词向量(一)
- 基于word2vec训练词向量(二)
- 自然语言处理中的自注意力机制(Self-Attention Mechanism)
- 自然语言处理中注意力机制综述
- YJango的Word Embedding--介绍
- CMU&谷歌大脑提出新型问答模型QANet
- 干货 | 一文概览主要语义分割网络
- 深度学习中IU、IoU(Intersection over Union)
- Selective Search for Object Detection (译文)
- NMS——非极大值抑制
- 边框回归(Bounding Box Regression)详解
- ID3、C4.5、CART、随机森林、bagging、boosting、Adaboost、GBDT、xgboost算法总结
- 数据挖掘十大算法简要说明
- AdaBoost到GBDT系列
- 集成学习之bagging,stacking,boosting概念理解
- Python3《机器学习实战》学习笔记(二):决策树基础篇之让我们从相亲说起
- Python3《机器学习实战》学习笔记(三):决策树实战篇之为自己配个隐形眼镜
- 机器学习实战教程(十三):树回归基础篇之CART算法与树剪枝
- 《机器学习实战》基于信息论的三种决策树算法(ID3,C4.5,CART)
- 说说决策树剪枝算法
- 机器学习实战 第九章 树回归
- 决策树值ID3、C4.5实现
- 决策树值CART实现
- SVM通俗导论 July(本文章是我看过最好的SVM导论)
- Python3《机器学习实战》学习笔记(八):支持向量机原理篇之手撕线性SVM (SMO训练过程总结得清晰易懂)
- svm核函数的理解和选择
- 核函数和径向基核函数 (Radial Basis Function)--RBF
- SVM核函数
- 1. 25个深度学习相关公开数据集
- 2. 自然语言处理(NLP)数据集
- 3.全唐诗(43030首)
- 4. 伯克利大学公开数据集
- 5. ACL 2018资源:100+ 预训练的中文词向量
- 6. 预训练中文词向量
- 7. 公开数据集种子库
- 8. 计算机视觉,深度学习,数据挖掘数据集整理
- 9. 计算机视觉著名数据集CV Datasets
- 10. 计算机视觉相关数据集和比赛
- 11. 这是一份非常全面的开源数据集,你,真的不想要吗?
- 12. 人群密度估计现有主要数据集特点及其比较
- 13. DANBOORU2017: A LARGE-SCALE CROWDSOURCED AND TAGGED ANIME ILLUSTRATION DATASET
- 14. 行人重识别数据集
- 15. 自然语言处理常见数据集、论文最全整理分享
- 16. paper, code, sota
- 17. 旷视RPC大型商品数据集发布!
- 有空再整理下整个列表的结构, 再收集下深度学习和机器学习入门的系列教程, 并附以代码实现, 争取全面而简单上手
- 本学期学完《docker_practice》