bobo老师特为机器学习初学者量身打造,使用新版python3语言和流行的scikit-learn框架,算法与编程两翼齐飞,由浅入深,一步步的进入机器学习的世界。学到的不只是一门课程,更是不断思考的能力。

 

第1章欢迎来到Python3玩转机器学习试看3节|48分钟

欢迎大家来到《Python3玩转机器学习》的课堂。在这个课程中,我们将从0开始,一点一点进入机器学习的世界。本门课程对机器学习领域的学习,绝不不仅仅只是对算法的学习,还包括诸如算法的评价,方法的选择,模型的优化,参数的调整,数据的整理,等等一系列工作。准备好了吗?现在开始我们的机器学习之旅!…

视频:1-1什么是机器学习(20:14)
视频:1-2课程涵盖的内容和理念(13:25)
视频:1-3课程所使用的主要技术栈(14:10)

第2章机器学习基础7节|90分钟

机器学习到底是什么鬼?这一章将带领大家深入理解机器学习的世界,让大家去熟悉那些看似陌生的专业术语。监督学习,非监督学习,半监督学习,增强学习,批量学习,在线学习,参数学习,非参数学习。看完这一章,这些概念你就统统了解啦。不仅如此,本章还包含相当深刻地和机器学习相关的哲学探讨,让你深入思索有关机器学习…

视频:2-1机器学习世界的数据(18:27)
视频:2-2机器学习的主要任务(16:00)
视频:2-3监督学习,非监督学习,半监督学习和增强学习(17:38)
视频:2-4批量学习,在线学习,参数学习和非参数学习(11:53)
视频:2-5和机器学习相关的“哲学”思考(12:00)
作业:2-6关于回归和分类
视频:2-7课程使用环境搭建(13:08)

第3章JupyterNotebook,numpy和matplotlib12节|208分钟

工欲善其事,必先利其器。在本章,我们将学习和机器学习相关的基础工具的使用:JupyterNotebook,numpy和matplotlib。大多数教程在讲解机器学习的时候,大量使用这些工具,却不对这些工具进行系统讲解。我特意添加了这个章节,让同学们在后续编写机器学习算法的过程中,更加得心应手!…

视频:3-1JupyterNotebook基础(18:42)
视频:3-2JupyterNotebook中的魔法命令(20:51)
视频:3-3Numpy数据基础(11:06)
视频:3-4创建Numpy数组(和矩阵)(19:16)
视频:3-5Numpy数组(和矩阵)的基本操作(18:15)
视频:3-6Numpy数组(和矩阵)的合并与分割(18:00)
视频:3-7Numpy中的矩阵运算(23:11)
视频:3-8Numpy中的聚合运算(13:19)
视频:3-9Numpy中的arg运算(11:12)
视频:3-10Numpy中的比较和FancyIndexing(22:36)
视频:3-11Matplotlib数据可视化基础(18:05)
视频:3-12数据加载和简单的数据探索(12:49)

第4章最基础的分类算法-k近邻算法kNN9节|172分钟

k近邻算法本身是一个思想非常简单的算法,但是这个简单算法背后,也蕴含着丰富的内容。在这一章,我们将详细介绍k近邻算法的原理,进而对训练数据集,测试数据集,分类准确度,超参数,数据归一化,样本距离等基础概念进行详细的探讨。我们将详细了解scikit-learn框架中对算法的封装,并实现我们自己的算法框架。我们还将学…

视频:4-1k近邻算法基础(22:42)
视频:4-2scikit-learn中的机器学习算法封装(22:22)
视频:4-3训练数据集,测试数据集(22:46)
视频:4-4分类准确度(19:20)
视频:4-5超参数(21:36)
视频:4-6网格搜索与k近邻算法中更多超参数(17:24)
视频:4-7数据归一化(15:27)
视频:4-8scikit-learn中的Scaler(19:24)
视频:4-9更多有关k近邻算法的思考(10:22)

第5章线性回归法10节|149分钟

线性回归法是机器学习领域的经典算法,很多更复杂的算法都是以线性回归为基础的。在这一章,我们将深入学习线性回归法背后的原理,同时仔细探讨如何评价回归算法。大家将对MSE,RMSE,MAE和RSquared等回归问题的评价指标有充分的理解。在实现层面上,我们还将学习机器学习领域的一个重要的实现技巧:向量化。…

视频:5-1简单线性回归(18:06)
视频:5-2最小二乘法(11:27)
视频:5-3简单线性回归的实现(14:09)
视频:5-4向量化(12:02)
视频:5-5衡量线性回归法的指标:MSE,RMSE和MAE(22:45)
视频:5-6最好的衡量线性回归法的指标:RSquared(16:28)
视频:5-7多元线性回归和正规方程解(15:58)
视频:5-8实现多元线性回归(13:08)
视频:5-9使用scikit-learn解决回归问题(12:42)
视频:5-10线性回归的可解释性和更多思考(11:53)

第6章梯度下降法9节|143分钟

梯度下降法是在机器学习领域的一个重要的搜索策略。在这一章,我们将详细讲解梯度下降法的基本原理,一步一步改进梯度下降算法,让大家理解梯度下降法中各种参数,尤其是学习率的意义。同时,我们还将引申出随机梯度下降法和小批量梯度下降法两个方法,让大家对梯度下降法家族有一个全方位的认识。…

视频:6-1什么是梯度下降法(16:20)
视频:6-2模拟实现梯度下降法(20:11)
视频:6-3线性回归中的梯度下降法(10:56)
视频:6-4实现线性回归中的梯度下降法(14:06)
视频:6-5梯度下降法的向量化和数据标准化(22:14)
视频:6-6随机梯度下降法(17:34)
视频:6-7scikit-learn中的随机梯度下降法(15:40)
视频:6-8如何确定梯度计算的准确性?调试梯度下降法(16:29)
视频:6-9有关梯度下降法的更多深入讨论(08:37)

第7章PCA与梯度上升法11节|140分钟

通常教材会使用非常多的数学概念来讲解PCA,在这个课程中,我们将另辟蹊径,绕开繁重的数学概念,使用梯度下降法的姊妹方法:梯度上升法来求解PCA问题,进而深刻理解PCA的基本原理,如何使用PCA进行数据的降维。我们还将给出多个PCA的应用场景,不仅让大家亲手实践出PCA降维的巨大威力,也让大家看到PCA在降噪,人脸识别等…

视频:7-1什么是PCA(17:45)
视频:7-2使用梯度上升法求解PCA问题(09:10)
视频:7-3求数据的主成分PCA(20:09)
视频:7-4求数据的前n个主成分(17:36)
视频:7-5高维数据映射为低维数据(19:29)
视频:7-6scikit-learn中的PCA(18:57)
视频:7-7试手MNIST数据集(12:06)
作业:7-8在三维数据上的PCA
图文:7-9关于MNIST数据集的最新获得方式
视频:7-10使用PCA对数据进行降噪(10:00)
视频:7-11人脸识别与特征脸(13:57)

第8章多项式回归与模型泛化10节|166分钟

在这一章,我们将接触非线性问题。我们将学习多项式回归的思想,使用线性回归的思路来解决非线性问题。进一步,我们将引申出或许是机器学习领域最重要的一个问题:模型泛化问题。我们将深入探讨什么是欠拟合,什么是过拟合,怎样检测欠拟合和过拟合。什么是交叉验证,什么是模型正则化。听起来拗口的Ridge和Lasso都是什么鬼…

视频:8-1什么是多项式回归(11:38)
视频:8-2scikit-learn中的多项式回归与Pipeline(16:26)
视频:8-3过拟合与欠拟合(14:22)
视频:8-4为什么要有训练数据集与测试数据集(16:09)
视频:8-5学习曲线(15:28)
视频:8-6验证数据集与交叉验证(25:20)
视频:8-7偏差方差平衡(15:16)
视频:8-8模型泛化与岭回归(19:15)
视频:8-9LASSO(16:59)
视频:8-10L1,L2和弹性网络(14:25)

第9章逻辑回归9节|137分钟

据统计,逻辑回归是机器学习领域最常用的分类算法,没有之一!在这一章,我们将逐渐揭开逻辑回归的神秘面纱,了解如何应用线性回归的思路,来解决分类问题。我们将综合之前所学习的很多内容,一点一点来完善我们的逻辑回归模型。我们还将继续深入分类问题,学习对分类结果概率的估计,以及决策边界等重要概念。…

视频:9-1什么是逻辑回归(16:07)
视频:9-2逻辑回归的损失函数(15:00)
视频:9-3逻辑回归损失函数的梯度(17:50)
视频:9-4实现逻辑回归算法(14:29)
视频:9-5决策边界(21:09)
视频:9-6在逻辑回归中使用多项式特征(15:09)
视频:9-7scikit-learn中的逻辑回归(17:22)
视频:9-8OvR与OvO(19:09)
作业:9-9其他算法的决策边界

第10章评价分类结果9节|126分钟

对机器学习分类算法结果的评估,是一个公认的复杂问题。在这一章,我们将来阐述这个问题为什么复杂。我们如何更好地看待我们的机器学习算法给出的结果。学习诸如混淆矩阵,准确率,精确率,召回率,F1,以及ROC等诸多评价分类结果的指标。通过这一章的学习,大家将更好地理解自己的机器学习算法给出的结果,从而在实际应用…

视频:10-1准确度的陷阱和混淆矩阵(15:06)
视频:10-2精准率和召回率(11:51)
视频:10-3实现混淆矩阵,精准率和召回率(15:42)
视频:10-4F1Score(17:42)
视频:10-5精准率和召回率的平衡(20:18)
视频:10-6精准率-召回率曲线(14:21)
视频:10-7ROC曲线(16:52)
作业:10-8关于机器学习不同的指标
视频:10-9多分类问题中的混淆矩阵(13:30)

第11章支撑向量机SVM9节|145分钟

在这一章,我们将深入学习大名鼎鼎的支撑向量机SVM。我们将从线性SVM开始,理解SVM的思路,进而深入理解SVM解决非线性问题的方式——核函数。我们将重点学习两个最重要的核函数:多项式核和径向基函数核。我们更会使用真实的数据集实验,看到SVM的优缺点。最后,我们还将探讨使用SVM解决回归问题的思路。…

视频:11-1什么是SVM(13:54)
视频:11-2SVM背后的最优化问题(19:21)
视频:11-3SoftMarginSVM(16:12)
视频:11-4scikit-learn中的SVM(21:23)
视频:11-5SVM中使用多项式特征和核函数(12:43)
视频:11-6到底什么是核函数(15:31)
视频:11-7RBF核函数(20:46)
视频:11-8RBF核函数中的gamma(13:39)
视频:11-9SVM思想解决回归问题(10:46)

第12章决策树7节|99分钟

在这一章,我们将学习另外一个大名鼎鼎的机器学习算法:决策树。决策树本身非常简单,背后并没有复杂的数学模型,但使用好决策树也有很多技巧。我们将深入了解什么是熵模型,什么是基尼系数,怎样使用决策树解决分类问题,怎样获得分类的概率,怎样用决策树解决回归问题,以及使用决策树的注意事项。…

视频:12-1什么是决策树(12:01)
视频:12-2信息熵(16:30)
视频:12-3使用信息熵寻找最优划分(20:20)
视频:12-4基尼系数(17:41)
视频:12-5CART与决策树中的超参数(15:04)
视频:12-6决策树解决回归问题(08:15)
视频:12-7决策树的局限性(08:16)

第13章集成学习和随机森林8节|101分钟

集成学习的思想是机器学习领域解决问题的一种重要思想。我们将从集成之前已经学习过的算法出发,进而引入集成学习的经典算法:随机森林。我们将看到集成学习的威力。在这一章,我们还会对其他集成学习的思想,如AdaBoost,GradientBoosting,Stacking等算法进行介绍。…

视频:13-1什么是集成学习(16:35)
视频:13-2SoftVotingClassifier(14:30)
视频:13-3Bagging和Pasting(16:52)
视频:13-4oob(Out-of-Bag)和关于Bagging的更多讨论(14:40)
视频:13-5随机森林和Extra-Trees(13:14)
视频:13-6AdaBoosting和GradientBoosting(15:30)
视频:13-7Stacking(08:46)
作业:13-8关于XGBoost

第14章更多机器学习算法2节|9分钟

相信通过这个课程的学习。同学们学到的不仅仅是一个一个零散的机器学习算法,更对机器学领域解决问题的方式有了一个系统性的认识。学会了这种思维方法,相信大家都可以更好地继续深入学习机器学习。在最后,我将给大家介绍scikit-learn的文档,希望大家能够借助scikit-learn这个强大的机器学习库,继续探索机器学习这个当下…

视频:14-1学习scikit-learn文档,大家加油!(08:32)
图文:14-2学习完这个课程以后怎样继续深入机器学习的学习?

发表回复

后才能评论

默认是geekape.net

解压密码:@vposy