Convolutional Neural Networks (week1) - CNN

  • 理解如何搭建一个神经网络,包括最新的变体,例如残余网络。
  • 知道如何将卷积网络应用到视觉检测和识别任务。
  • 知道如何使用神经风格迁移生成艺术。
  • 能够在图像、视频以及其他2D或3D数据上应用这些算法。

Read More

Structured Machine Learning Projects (week1) - ML Strategy 1

这次我们要学习专项课程中第三门课 Structured Machine Learning Projects

学完这门课之后,你将会:

  • 理解如何诊断机器学习系统中的错误
  • 能够优先减小误差最有效的方向
  • 理解复杂ML设定,例如训练/测试集不匹配,比较并/或超过人的表现
  • 知道如何应用端到端学习、迁移学习以及多任务学习

很多团队浪费数月甚至数年来理解这门课所教授的准则,也就是说,这门两周的课可以为你节约数月的时间

Read More

Improving Deep Neural Networks (week1) - 深度学习的实用层面

这次我们要学习专项课程中第二门课 Improving Deep Neural Networks

学完这门课之后,你将会:

  • 能够高效地使用神经网络通用的技巧,包括 初始化、L2和dropout正则化、Batch归一化、梯度检验
  • 能够实现并应用各种优化算法,例如 Mini-batch、Momentum、RMSprop、Adam,并检查它们的收敛程度
  • 理解深度学习时代关于如何 构建训练/开发/测试集 以及 偏差/方差分析 最新最有效的方法.
  • 能够用TensorFlow实现一个神经网络

这门课将会详尽地介绍深度学习的基本原理,而不仅仅只进行理论概述.

Read More

L1、L2 正则化小记 (not finish)

  • 奥卡姆剃刀: 在所有可能选择的模型中,我们应该选择能够很好的解释已知数据并且十分简单的模型
  • 贝叶斯估计: 规则化项对应于模型的先验概率
  • 结构风险最小化: 规则化项是结构风险最小化策略的实现,即在经验风险上加一个正则化项或惩罚项

Read More

模型评估 Precision、Recall、ROC、AUC 总结

实际上非常简单,Precision 是针对我们预测结果而言的,它表示的是预测为正的样本中有多少是对的。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP).

Read More

Boosting - Xgboost (not finish)

Github上和机器学习工具包(如sklearn)中有很多优秀的开源boosting实现。在这里重点介绍@陈天奇怪同学的 Xgboost.

Kaggle上的许多数据挖掘竞赛,Boosting 类方法都帮助参赛者取得了好成绩. 其中很多优秀战果都是用的 Xgboost神器

Read More

Ensumble 集成学习小记

本文主要基于周志华《机器学习》一书第八章 集成学习内容做的整理笔记,此外查阅了网上的一些博客和问答网站

Read More

学习笔记(八) - Boosting

我们需要对多个模型进行融合以提高效果时,常常会用到 Bagging,Boosting,Stacking 等这几个框架算法.

Boosting 有很多种,比如 Adaptive Boosting、Gradient Boosting等,这里以AdaBoost,Gradient Boosting 为典型.

Read More

LR 与 SVM 的异同

LR 和 SVM 之间的相同点和不同点, 查询了网络上的一些资料,特整理汇总如下 : 😄

Read More

Support Vecor Machine (六部曲)

Support Vecor Machine, 自一诞生便由于它良好的分类性能席卷了机器学习领域,并牢牢压制了神经网络领域好多年。 如果不考虑集成学习的算法,不考虑特定的训练数据集,在分类算法中的表现SVM说是排第一估计是没有什么异议的.

Read More

Ensemble Learning (part2)

提升(boosting)方法是一类应用广泛且非常有效的统计学习方法。

  • Boosting 概念
  • 代表性 Boosting 算法 AbaBoost 介绍

Read More

Ensemble Learning (part1)

Ensemble learning(集成学习):是目前机器学习的一大热门方向,所谓集成学习简单理解就是指采用多个分类器对数据集进行预测,从而提高整体分类器的泛化能力。

Read More