设为首页收藏本站

宏胜资源网

 找回密码
 立即注册
搜索
热搜: PLC 电子 经济师
查看: 92623|回复: 0

2017年最新硅谷技术大牛机器学习入门英语教学中英文字幕 494课视频教程

[复制链接]
发表于 2018-4-25 09:00:00 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
课程名称:  2017年最新硅谷技术大牛机器学习入门英语教学中英文字幕 494课视频教程

免费试看:    

下载地址:
游客, 下载地址需要支付 28下载币 才能浏览支付

课程简介:    

都是来自硅谷Facebook Google公司的工程师大牛讲解,带有中文字幕。17年最新,推荐学习。

----------------------课程目录------------------------------

113 - 构建决策树/
114 - 构建决策树/
115 - 构建决策树/
116 - 构建决策树/
119 - 构建决策树/
120 - 构建决策树/
225 - sklearn 中的年龄/
226 - sklearn 中的年龄/
260 - 异常值检测/
310 - 最小值/
311 - 最小值/
312 - sklearn 中的最小值/
415 - PCA 的回顾/
429 - 在 sklearn 中分开的训练/
1 - 简介
10 - 特征和标签音乐示例
100 - 核和伽玛
101 - 核和伽玛 Solution
102 - SVM C 参数
103 - SVM C 参数 Solution
104 - 过拟合
105 - 过拟合 Solution
106 - SVM 的优缺点
107 - SVM 迷你项目简介
108 - 欢迎学习决策树
109 - 可线性分离的数据
11 - 特征可视化
110 - 可线性分离的数据 Solution
111 - 多元线性问题
112 - 多元线性问题 Solution
117 - 第二次分割后的类标签
118 - 第二次分割后的类标签 Solution
12 - 特征可视化 Solution
121 - 决策树编码
122 - 决策树编码 Solution
123 - 决策树准确性
124 - 决策树准确性 Solution
125 - 决策树参数
126 - 决策树参数 Solution
127 - 最小样本分割
128 - 最小样本分割 Solution
129 - 决策树准确性
13 - 肉眼分类
130 - 决策树准确性 Solution
131 - 数据杂质与熵
132 - 在分割中尽可能减少杂质
133 - 在分割中尽可能减少杂质 Solution
134 - 熵公式
135 - 熵计算(第 1 部分)
136 - 熵计算(第 1 部分) Solution
137 - 熵计算(第 2 部分)
138 - 熵计算(第 2 部分) Solution
139 - 熵计算(第 3 部分)
14 - 肉眼分类 Solution
140 - 熵计算(第 3 部分) Solution
141 - 熵计算(第 4 部分)
142 - 熵计算(第 4 部分) Solution
143 - 熵计算(第 5 部分)
144 - 熵计算(第 5 部分) Solution
145 - 信息增益
146 - 信息增益计算(第 1 部分)
147 - 信息增益计算(第 1 部分) Solution
148 - 信息增益计算(第 2 部分)
149 - 信息增益计算(第 2 部分) Solution
15 - Stanley 地形分类简介
150 - 信息增益计算(第 3 部分)
151 - 信息增益计算(第 3 部分) Solution
152 - 信息增益计算(第 4 部分)
153 - 信息增益计算(第 4 部分) Solution
154 - 信息增益计算(第 5 部分)
155 - 信息增益计算(第 5 部分) Solution
156 - 信息增益计算(第 6 部分)
157 - 信息增益计算(第 6 部分) Solution
158 - 信息增益计算(第 7 部分)
159 - 信息增益计算(第 7 部分) Solution
16 - 速度散点图:坡度和颠簸度
160 - 信息增益计算(第 8 部分)
161 - 信息增益计算(第 8 部分) Solution
162 - 信息增益计算(第 9 部分)
163 - 信息增益计算(第 9 部分) Solution
164 - 信息增益计算(第 10 部分)
165 - 信息增益计算(第 10 部分) Solution
166 - 调整标准参数
167 - 偏差-方差困境
168 - DT 的优缺点
169 - 决策树迷你项目简介
17 - 速度散点图:坡度和颠簸度 Solution
170 - 选择你自己的算法
171 - 选择你的冒险
172 - 可选算法
173 - 调查过程
174 - 你的算法如何比较
175 - L4 迷你项目
176 - 结尾
177 - 简介
178 - 什么是 POI
179 - 准确率与训练集大小
18 - 速度散点图 2
180 - 下载安然数据
181 - 数据类型测验 1
182 - 数据类型测验 1 Solution
183 - 数据类型测验 2
184 - 数据类型测验 2 Solution
185 - 数据类型测验 3
186 - 数据类型测验 3 Solution
187 - 数据类型测验 4
188 - 数据类型测验 4 Solution
189 - 数据类型测验 5
19 - 速度散点图 2 Solution
190 - 数据类型测验 5 Solution
191 - 数据类型测验 6
192 - 数据类型测验 6 Solution
193 - 安然数据集迷你项目简介
194 - 连续输出
195 - 连续输出 Solution
196 - 连续
197 - 连续 Solution
198 - 年龄:连续还是离散?
199 - 年龄:连续还是离散? Solution
2 - 简介 - 第 2 部分
20 - 速度散点图 3
200 - 天气:连续还是离散?
201 - 天气:连续还是离散? Solution
202 - 电子邮件作者:连续还是离散?
203 - 电子邮件作者:连续还是离散? Solution
204 - 电话号码:连续还是离散?
205 - 电话号码:连续还是离散? Solution
206 - 收入:连续还是离散?
207 - 收入:连续还是离散? Solution
208 - 连续特征
209 - 连续特征 Solution
21 - 速度散点图 3 Solution
210 - 具有连续输出的监督式学习
211 - 具有连续输出的监督式学习 Solution
212 - 回归线性方程
213 - 回归线性方程 Solution
214 - 斜率和截距
215 - 斜率
216 - 斜率 Solution
217 - 截距
218 - 截距 Solution
219 - 使用回归的预测
22 - 从散点图到预测
220 - 使用回归的预测 Solution
221 - 添加截距
222 - 添加截距 Solution
223 - 移交给 Katie
224 - 编码
227 - 通过 sklearn 提取信息
228 - 通过 sklearn 提取分数数据
229 - 线性回归误差
23 - 从散点图到预测 Solution
230 - 误差
231 - 误差 Solution
232 - 误差和拟合质量
233 - 误差和拟合质量 Solution
234 - 最小化误差平方和
235 - 最小化误差平方和的算法
236 - 为何最小化 SSE
237 - 为何最小化 SSE Solution
238 - 最小化绝对误差的问题
239 - 肉眼评估回归
24 - 从散点图到预测 2
240 - 肉眼评估回归 Solution
241 - SSE 的问题
242 - SSE 的问题 Solution
243 - 回归的 R 平方指标
244 - SKlearn 中的 R 平方
245 - 可视化回归
246 - 什么数据适用于线性回归
247 - 什么数据适用于线性回归 Solution
248 - 比较分类与回归
249 - 多元回归
25 - 从散点图到预测 2 Solution
250 - 多元回归 Solution
251 - 多元回归 2
252 - 多元回归 2 Solution
253 - 回归迷你项目简介
254 - 回归中的异常值
255 - 回归中的异常值 Solution
256 - 产生异常值的原因
257 - 产生异常值的原因 Solution
258 - 选择异常值
259 - 选择异常值 Solution
26 - 从散点图到决策面
261 - 使用残差的异常值检测
262 - 使用残差的异常值检测 Solution
263 - 删除异常值对回归的影响
264 - 删除异常值对回归的影响 Solution
265 - 异常值删除策略的小结
266 - 异常值迷你项目简介
267 - 非监督学习
268 - 聚类电影
269 - 多少个聚类?
27 - 从散点图到决策面 Solution
270 - 多少个聚类? Solution
271 - 将点与聚类匹配
272 - 将点与聚类匹配 Solution
273 - 优化中心(橡皮筋)
274 - 优化中心(橡皮筋) Solution
275 - 移动中心 2
276 - 移动中心 2 Solution
277 - 匹配点(再次)
278 - 匹配点(再次) Solution
279 - 移交给 Katie
28 - 良好的线性决策面
280 - K-均值聚类可视化
281 - K-均值聚类可视化 Solution
282 - K-均值聚类可视化 2
283 - K-均值聚类可视化 3
284 - Sklearn
285 - K-均值的挑战
286 - K-均值的局限
287 - K-均值的局限 Solution
288 - 反直觉的聚类
289 - 反直觉的聚类 Solution
29 - 良好的线性决策面 Solution
290 - 反直觉的聚类 2
291 - 反直觉的聚类 2 Solution
292 - 聚类迷你项目
293 - Chris 的 T 恤尺寸(直觉)
294 - Chris 的 T 恤尺寸(直觉) Solution
295 - 针对 Chris 的度量
296 - 针对 Chris 的度量 Solution
297 - Cameron 的身高 + 体重
298 - Cameron 的身高 + 体重 Solution
299 - Sarah 的身高 + 体重
3 - 简介 - 第 3 部分
30 - 转为使用朴素贝叶斯
300 - Sarah 的身高 + 体重 Solution
301 - 由我们的度量确定的 Chris T 恤尺寸
302 - 由我们的度量确定的 Chris T 恤尺寸 Solution
303 - 利用不同的尺度来比较特征
304 - 特征缩放公式练习 1
305 - 特征缩放公式练习 1 Solution
306 - 特征缩放公式练习 2
307 - 特征缩放公式练习 2 Solution
308 - 特征缩放公式练习 3
309 - 特征缩放公式练习 3 Solution
31 - Python 中的 NB 决策边界
313 - 需要重缩放的算法练习
314 - 需要重缩放的算法练习 Solution
315 - 特征缩放迷你项目简介
316 - 学习文本时的维度
317 - 学习文本时的维度 Solution
318 - 词袋
319 - 词袋 Solution
32 - sklearn 使用入门
320 - 美好的一天
321 - 美好的一天 Solution
322 - Day 先生热爱美好的一天
323 - Day 先生热爱美好的一天 Solution
324 - 词袋属性
325 - 词袋属性 Solution
326 - Sklearn 中的词袋
327 - 低信息的单词
328 - 低信息的单词 Solution
329 - 停止词
33 - 高斯朴素贝叶斯示例
330 - 停止词 Solution
331 - 从 NLTK 中获取停止词
332 - 从 NLTK 中获取停止词 Solution
333 - 词干化以合并词汇
334 - 使用 NLTK 进行词干化
335 - 文本处理中的运算符顺序
336 - 文本处理中的运算符顺序 Solution
337 - 由词频确定的权重
338 - 由词频确定的权重 Solution
339 - 为何要向上加权少见单词
34 - 有关地形数据的高斯 NB 部署
340 - 文本学习迷你项目简介
341 - 为何使用特征选择?
342 - 一个新的安然特征
343 - 一个新的安然特征练习
344 - 一个新的安然特征练习 Solution
345 - 可视化新特征
346 - 可视化新特征 Solution
347 - 警惕特征漏洞!
348 - 去除特征
349 - 去除特征 Solution
35 - 有关地形数据的高斯 NB 部署 Solution
350 - 特征不等于信息
351 - TfIdf 向量器中的特征选择
352 - TfIdf 向量器中的特征选择 Solution
353 - 偏差、方差和特征数量
354 - 偏差、方差和特征数量 Solution
355 - 偏差、方差和特征数量 2
356 - 偏差、方差和特征数量 2 Solution
357 - 肉眼过拟合
358 - 带有特征数量的平衡误差
359 - 正则化
36 - 计算 NB 准确性
360 - 套索回归
361 - 套索回归练习
362 - 套索回归练习 Solution
363 - 使用 Sklearn 进行套索预测练习
364 - 使用 Sklearn 进行套索预测练习 Solution
365 - Sklearn 中的套索系数练习
366 - Sklearn 中的套索系数练习 Solution
367 - 在 Sklearn 中使用套索练习
368 - 在 Sklearn 中使用套索练习 Solution
369 - 特征选择迷你项目简介
37 - 计算 NB 准确性 Solution
370 - 数据维度
371 - 数据维度 Solution
372 - 较棘手的数据维度
373 - 较棘手的数据维度 Solution
374 - 一维或二维?
375 - 一维或二维? Solution
376 - 略微不完美的数据
377 - 略微不完美的数据 Solution
378 - 最棘手的数据维度
379 - 最棘手的数据维度 Solution
38 - 训练数据和测试数据
380 - 用于数据转换的 PCA
381 - 新坐标系的中心
382 - 新坐标系的中心 Solution
383 - 新坐标系的主轴
384 - 新坐标系的主轴 Solution
385 - 新系统的第二主成分
386 - 新系统的第二主成分 Solution
387 - 练习查找中心
388 - 练习查找中心 Solution
389 - 练习查找新轴
39 - 使用贝叶斯规则将 NB 拆包
390 - 练习查找新轴 Solution
391 - 哪些数据可用于 PCA
392 - 哪些数据可用于 PCA Solution
393 - 轴何时占主导地位
394 - 轴何时占主导地位 Solution
395 - 可测量的特征与潜在的特征练习
396 - 可测量的特征与潜在的特征练习 Solution
397 - 从四个特征到两个
398 - 从四个特征到两个 Solution
399 - 在保留信息的同时压缩
4 - 先修要求
40 - 贝叶斯规则
400 - 在保留信息的同时压缩 Solution
401 - 复合特征
402 - 复合特征 Solution
403 - 最大方差
404 - 最大方差 Solution
405 - 最大方差的优点
406 - 最大方差的优点 Solution
407 - 最大方差与信息损失
408 - 最大方差与信息损失 Solution
409 - 信息损失和主成分
41 - 癌症测试
410 - 相邻复合特征
411 - 相邻复合特征 Solution
412 - 用于特征转换的 PCA
413 - 最大主成分数量
414 - 最大主成分数量 Solution
416 - 安然财务数据的 PCA
417 - 安然财务数据的 PCA Solution
418 - sklearn 中的 PCA
419 - 何时使用 PCA
42 - 癌症测试 Solution
420 - 用于人脸识别的 PCA
421 - 用于人脸识别的 PCA Solution
422 - 特征脸方法代码
423 - PCA 迷你项目简介
424 - 选择主成分
425 - 选择主成分 Solution
426 - 既有趣、又有益的交叉验证
427 - 测试的好处
428 - 测试的好处 Solution
43 - 先验和后验
430 - 何处使用训练与测试数据 1
431 - 何处使用训练与测试数据 1 Solution
432 - 何处使用训练与测试数据 2
433 - 何处使用训练与测试数据 2 Solution
434 - 何处使用训练与测试数据 3
435 - 何处使用训练与测试数据 3 Solution
436 - 何处使用训练与测试数据 4
437 - 何处使用训练与测试数据 4 Solution
438 - K 折交叉验证
439 - K 折交叉验证 Solution
44 - 先验和后验 Solution
440 - Sklearn 中的 K 折 CV
441 - 针对 Sklearn 中的 K 折的实用建议
442 - 为调整参数而进行的交叉验证
443 - 开始验证迷你项目
444 - 验证迷你项目简介
445 - 评估指标
446 - 准确率回顾
447 - 准确率的缺陷
448 - 准确率的缺陷 Solution
449 - 选择最合适的指标
45 - 规范化 1
450 - 混淆矩阵
451 - 混淆矩阵 Solution
452 - 混淆矩阵练习 1
453 - 混淆矩阵练习 1 Solution
454 - 混淆矩阵练习 2
455 - 混淆矩阵练习 2 Solution
456 - 填充混淆矩阵
457 - 填充混淆矩阵 Solution
458 - 混淆矩阵:误报
459 - 混淆矩阵:误报 Solution
46 - 规范化 1 Solution
460 - 决策树混淆矩阵
461 - 决策树混淆矩阵 Solution
462 - 特征脸混淆矩阵
463 - 特征脸混淆矩阵 Solution
464 - 有多少 Schroeder
465 - 有多少 Schroeder Solution
466 - 有多少 Schroeder 预测值
467 - 有多少 Schroeder 预测值 Solution
468 - 正确分类查韦斯 1
469 - 正确分类查韦斯 1 Solution
47 - 规范化 2
470 - 正确分类查韦斯 2
471 - 正确分类查韦斯 2 Solution
472 - 精确率和召回率
473 - 鲍威尔精确率和召回率
474 - 鲍威尔精确率和召回率 Solution
475 - 布什精确率和召回率
476 - 布什精确率和召回率 Solution
477 - 特征脸方法中的 True Positives
478 - 特征脸方法中的 True Positives Solution
479 - 特征脸方法中的 False Positives
48 - 规范化 2 Solution
480 - 特征脸方法中的 False Positives Solution
481 - 特征脸方法中的 False Negatives
482 - 特征脸方法中的 False Negatives Solution
483 - 对拉姆斯菲尔德练习 TP、FP、FN
484 - 对拉姆斯菲尔德练习 TP、FP、FN Solution
485 - 精确率公式
486 - 精确率公式 Solution
487 - 召回率公式
488 - 召回率公式 Solution
489 - 最后部分
49 - 规范化 3
490 - 评估迷你项目简介
491 - 简介
492 - 小结
493 - 内容结尾
494 - 回顾
5 - Google 无人驾驶汽车中的机器学习
50 - 规范化 3 Solution
51 - 全概率
52 - 全概率 Solution
53 - 贝叶斯规则图
54 - 用于分类的贝叶斯规则
55 - 用于分类的贝叶斯规则 Solution
56 - Chris 或 Sara
57 - Chris 或 Sara Solution
58 - 后验概率
59 - 后验概率 Solution
6 - acerous 还是 non-acerous?
60 - 你独自得出的贝叶斯概率
61 - 你独自得出的贝叶斯概率 Solution
62 - 为何朴素贝叶斯很朴素
63 - 为何朴素贝叶斯很朴素 Solution
64 - 朴素贝叶斯的优势和劣势
65 - 恭喜你学完了朴素贝叶斯
66 - 朴素贝叶斯迷你项目
67 - 欢迎学习 SVM
68 - 分隔线
69 - 分隔线 Solution
7 - acerous 还是 non-acerous? Solution
70 - 选择分隔线
71 - 选择分隔线 Solution
72 - 好的分隔线有何特点
73 - 好的分隔线有何特点 Solution
74 - 间隔练习
75 - 间隔练习 Solution
76 - SVMs 和棘手的数据分布
77 - SVMs 和棘手的数据分布 Solution
78 - SVM 对异常值的响应
79 - SVM 对异常值的响应 Solution
8 - 监督式分类示例
80 - SVM 异常值练习
81 - SVM 异常值练习 Solution
82 - 移交给 Katie
83 - SKlearn 中的 SVM
84 - SVM 决策边界
85 - SVM 编码
86 - SVM 编码 Solution
87 - 非线性 SVM
88 - 非线性数据
89 - 非线性数据 Solution
9 - 监督式分类示例 Solution
90 - 新特征
91 - 新特征 Solution
92 - 可视化新特征
93 - 与新特征分隔
94 - 与新特征分隔 Solution
95 - 练习创建新特征
96 - 练习创建新特征 Solution
97 - 核技巧
98 - 尝试选择各种核
99 - 尝试选择各种核 Solution



上一篇:2017年最新机器学习项目班纯实战视频教程
下一篇:人工智能与数据挖掘2017年最新炼数成金文本挖掘与自然语言处理附讲义 12周视频教程
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

 
 
VIP购买
在线客服
微信号:hszy8com
QQ:1127517575
宏胜资源【1】群
工作时间:
8:00-22:00
 

QQ|苏公网安备 32011402010784号|小黑屋|宏胜资源网-你身边的学习资料库! ( 鲁ICP备14027891号-1  

GMT+8, 2024-5-2 05:02 , Processed in 0.078667 second(s), 27 queries .

Powered by hszy8.com

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表