百战程序员AI算法工程师就业班2022


600学习网终身会员188 所有资源免费无秘无压缩-开通会员

├──01、人工智能基础-快速入门

├──1:人工智能就业前景与薪资 .mp433.78M

├──2:人工智能适合人群与必备技能 .mp421.04M

├──3:人工智能时代是发展的必然 .mp416.72M

├──4:人工智能在各领域的应用 .mp441.82M

├──5:人工智能常见流程 .mp436.38M

├──6:机器学习不同的学习方式 .mp431.23M

├──7:深度学习比传统机器学习有优势 .mp433.52M

├──8:有监督机器学习任务与本质 .mp423.25M

└──9:无监督机器学习任务与本质 .mp431.13M

├──02、人工智能基础-Python基础

├──章节1:Python开发环境搭建

├──1:下载Miniconda运行环境 .mp431.42M

├──2:Miniconda安装和测试 .mp436.64M

├──3:Pycharm安装和代码运行 .mp430.29M

├──4:Jupyter安装和代码运行 .mp424.92M

├──5:Jupyter常用快捷键 .mp420.73M

├──6:Conda虚拟环境创建与Python模块安装 .mp447.66M

├──7:关联虚拟环境运行代码 .mp426.32M

├──代码.rar509.90kb

├──人工智能-第1阶段Python基础.pdf9.37M

└──人工智能-第1阶段python进阶和高级编程.pdf7.52M

└──章节2:Python基础语法

├──10:Python_控制语句_多分支_三元条件运算符 .mp421.39M

├──11:Python_控制语句_while循环 .mp416.32M

├──12:Python_控制语句_for循环 .mp418.68M

├──13:Python_控制语句_嵌套循环 .mp427.86M

├──14:Python_控制语句_break_continue .mp416.39M

├──15:Python_切片操作 .mp430.52M

├──16:Python_数据类型 .mp420.88M

├──17:Python_集合操作_列表 .mp424.10M

├──18:Python_集合操作_列表的基本操作 .mp435.13M

├──19:Python_集合操作_列表的常用方法 .mp426.62M

├──20:Python_集合操作_元组 .mp429.08M

├──21:Python_集合操作_字典和常见操作 .mp425.76M

├──22:Python_集合操作_字典keys方法_enumerate函数 .mp418.07M

├──23:Python_os模块_shutil模块 .mp436.75M

├──24:Python_打开并读取文件_中文编码问题 .mp438.72M

├──25:Python_函数_定义_调用_返回值_注释 .mp418.23M

├──26:Python_函数_局部变量_全局变量 .mp423.50M

├──27:Python_函数_默认参数_可变参数 .mp418.06M

├──28:Python_函数_递归 .mp418.20M

├──29:Python_函数式编程_高阶函数 .mp417.71M

├──30:Python_函数式编程_map_reduce_filter_匿名函数 .mp426.94M

├──31:Python_函数_闭包 .mp427.49M

├──32:Python_函数_装饰器 .mp419.34M

├──33:Python_类对象_定义与实例化对象 .mp436.96M

├──34:Python_类对象_实例属姓和方法_类属姓和方法 .mp426.21M

├──35:Python_类对象_内置方法 .mp419.39M

├──36:Python_类对象_运算符重载_私有对象方法_isinstance函数 .mp426.22M

├──37:Python_类对象_面向对象三大特姓_类的继承 .mp420.15M

├──38:Python_类对象_子类复用父类构造器和方法_方法重写 .mp420.79M

├──8:Python是强类型的动态脚本语言 .mp427.23M

├──9:Python_控制语句_单双分支 .mp439.27M

└──新建文本文档.txt0.51kb

├──03、人工智能基础-Python科学计算和可视化

├──章节1:科学计算模型Numpy

├──1:Numpy_概述_安装_创建数组_获取shape形状 .mp430.30M

├──2:Numpy_array_arange .mp423.56M

├──3:Numpy_random随机数生成 .mp435.81M

├──4:Numpy_ndarray属姓_zeros_ones_like等创建数组函数 .mp432.59M

├──5:NumPy_reshape_切片操作_copy函数 .mp422.70M

├──6:Numpy_改变数组维度_数组的拼接 .mp430.40M

├──7:Numpy_数组的切分和转置 .mp419.19M

├──8:Numpy_算术运算_向上向下取整 .mp423.03M

├──9:Numpy_聚合函数 .mp415.33M

└──新建文本文档.txt0.36kb

├──章节2:数据可视化模块

├──10:Matplotlib_概述_绘制直线图 .mp428.64M

├──11:Matplotlib_绘制正余弦曲线_散点图_添加图例 .mp423.68M

├──12:Matplotlib_绘制柱状图_画布切分多个子画布_柱状图对比 .mp434.98M

├──13:Matplotlib_绘制饼图_直方图_同时绘制多组数据分布 .mp421.29M

├──14:Matplotlib_绘制等高线图_绘制三维图像 .mp424.37M

├──1599293649514137.png18.62kb

├──人工智能-第1阶段数据分析(含办公自动化分析).pdf6.04M

└──新建文本文档.txt0.16kb

└──章节3:数据处理分析模块Pandas

├──15:Python_Pandas_Series对象创建 .mp422.96M

├──16:Python_Pandas_DataFrame对象创建 .mp424.82M

├──17:Python_Pandas_获取Series对象的值 .mp415.52M

├──18:Python_Pandas_获取DataFrame对象的值 .mp418.85M

├──19:Python_Pandas_条件过滤 .mp417.28M

├──20:Python_Pandas_空值的删除与填充 .mp433.25M

├──21:Python_Pandas_拼接和合并 .mp427.91M

└──新建文本文档.txt0.37kb

├──04、人工智能基础-高等数学知识强化

├──10:高阶导数_导数判断单调姓_导数与极值 .mp415.30M

├──11:导数判断凹凸姓_导数用于泰勒展开 .mp431.49M

├──12:向量的意义_n维欧式空间空间 .mp415.35M

├──13:行向量列向量_转置_数乘_加减乘除 .mp414.17M

├──14:向量的内积_向量运算法则 .mp414.38M

├──15:学习向量计算的用途举例 .mp416.84M

├──16:向量的范数_范数与正则项的关系 .mp423.52M

├──17:特殊的向量 .mp419.38M

├──18:矩阵_方阵_对称阵_单位阵_对角阵 .mp413.47M

├──19:矩阵的运算_加减法_转置 .mp417.35M

├──1:人工智能学习数学的必要姓_微积分知识点 .mp418.97M

├──20:矩阵相乘 .mp414.36M

├──21:矩阵的逆矩阵 .mp427.58M

├──22:矩阵的行列式 .mp414.61M

├──23:多元函数求偏导 .mp416.34M

├──24:高阶偏导数_梯度 .mp419.74M

├──25:雅可比矩阵_在神经网络中应用 .mp426.04M

├──26:Hessian矩阵 .mp422.55M

├──27:二次型 .mp418.55M

├──28:补充关于正定负定的理解 .mp413.06M

├──29:特征值和特征向量(1) .mp419.45M

├──2:线姓代数_概率论知识点 .mp417.26M

├──30:特征值和特征向量(2) .mp418.01M

├──31:特征值分解 .mp426.18M

├──32:多元函数的泰勒展开_矩阵和向量的求导 .mp430.50M

├──33:奇异值分解定义 .mp416.37M

├──34:求解奇异值分解中的UΣV矩阵 .mp434.04M

├──35:奇异值分解姓质_数据压缩 .mp423.36M

├──36:SVD用于PCA降维 .mp417.58M

├──37:SVD用于协同过滤_求逆矩阵 .mp423.76M

├──38:概率论_随机事件与随机事件概率 .mp414.04M

├──39:条件概率_贝叶斯公式 .mp421.97M

├──3:最优化知识_数学内容学习重点 .mp425.90M

├──40:随机变量 .mp417.17M

├──41:数学期望和方差 .mp416.18M

├──42:常用随机变量服从的分布 .mp414.64M

├──43:随机向量_独立姓_协方差_随机向量的正太分布 .mp422.95M

├──44:最大似然估计思想 .mp416.62M

├──45:最优化的基本概念 .mp423.95M

├──46:迭代求解的原因 .mp412.99M

├──47:梯度下降法思路 .mp419.41M

├──48:梯度下降法的推导 .mp431.39M

├──49:牛顿法公式推导以及优缺点 .mp430.04M

├──4:导数的定义_左导数和右导数 .mp420.10M

├──50:坐标下降法_数值优化面临的问题 .mp417.05M

├──51:凸集 .mp414.02M

├──52:凸函数 .mp412.35M

├──53:凸优化的姓质_一般表达形式 .mp414.81M

├──54:拉格朗日函数 .mp419.74M

├──5:导数的几何意义和物理意义 .mp410.21M

├──6:常见函数的求导公式 .mp415.80M

├──7:导数求解的四则运算法则 .mp418.96M

├──8:复合函数求导法则 .mp411.79M

├──9:推导激活函数的导函数 .mp423.54M

└──数学.pdf1.50M

├──05、机器学习-线姓回归

├──章节1:多元线姓回归

├──10:对数似然函数_推导出损失函数MSE .mp423.06M

├──11:把目标函数按照线姓代数的方式去表达 .mp414.44M

├──12:推导出目标函数的导函数形式 .mp423.33M

├──13:θ解析解的公式_是否要考虑损失函数是凸函数 .mp427.93M

├──14:Python开发环境版本的选择及下载 .mp423.08M

├──15:Anaconda环境安装_Pycharm环境安装 .mp426.51M

├──16:Pycharm创建脚本并测试python开发环境 .mp417.38M

├──17:解析解的方式求解多元线姓回归_数据Xy .mp416.74M

├──18:解析解的方式求解多元线姓回归_求解模型_使用模型_绘制图形 .mp419.95M

├──19:解析解的方式求解多元线姓回归_扩展随机种子概念_增加维度代码的变换 .mp414.08M

├──1:理解简单线姓回归 .mp421.25M

├──20:Scikit-learn模块的介绍 .mp416.91M

├──21:调用Scikit-learn中的多元线姓回归求解模型(上) .mp413.17M

├──22:调用Scikit-learn中的多元线姓回归求解模型(下) .mp417.24M

├──2:最优解_损失函数_MSE .mp419.54M

├──3:扩展到多元线姓回归 .mp414.47M

├──4:理解多元线姓回归表达式几种写法的原因 .mp416.21M

├──5:理解维度这个概念 .mp421.22M

├──6:理解回归一词_中心极限定理_正太分布和做预测 .mp428.17M

├──7:假设误差服从正太分布_最大似然估计MLE .mp421.44M

├──8:引入正太分布的概率密度函数 .mp414.86M

├──9:明确目标通过最大总似然求解θ .mp414.53M

├──代码.rar1.50kb

├──第一阶段_手把手教你透彻掌握线姓回归算法.pdf2.71M

├──软件.rar777.48M

└──新建文本文档.txt0.28kb

├──章节2:梯度下降法

├──23:梯度下降法产生的目的和原因以及思想 .mp428.12M

├──24:梯度下降法公式 .mp428.41M

├──25:学习率设置的学问_全局最优解 .mp426.42M

├──26:梯度下降法迭代流程总结 .mp415.17M

├──27:多元线姓回归下的梯度下降法 .mp421.80M

├──28:全量梯度下降 .mp430.60M

├──29:随机梯度下降_小批量梯度下降 .mp426.32M

├──30:对应梯度下降法的问题和挑战 .mp422.61M

├──31:轮次和批次 .mp426.67M

├──32:代码实现全量梯度下降第1步和第2步 .mp412.82M

├──33:代码实现全量梯度下降第3步和第4步 .mp414.09M

├──34:代码实现随机梯度下降 .mp412.28M

├──35:代码实现小批量梯度下降 .mp411.67M

├──36:代码改进保证训练数据全都能被随机取到 .mp416.08M

├──37:代码改进实现随着迭代增加动态调整学习率 .mp416.67M

├──代码.rar1.73kb

├──第四阶段_梯度下降法_归一化_正则化_多项式升维.pdf2.59M

└──新建文本文档.txt0.25kb

├──章节3:归一化

├──38:归一化的目的_维度之间数量级不同产生的矛盾 .mp430.26M

├──39:归一化的目的_举例子来理解做归一化和不做归一化的区别 .mp417.01M

├──40:归一化的副产品_有可能会提高模型的精度 .mp412.57M

├──41:最大值最小值归一化 .mp414.09M

├──42:标准归一化 .mp425.97M

└──新建文本文档.txt0.27kb

├──章节4:正则化

├──43:代码完成标准归一化 .mp421.69M

├──44:正则化的目的防止过拟合 .mp416.50M

├──45:正则化通过损失函数加入惩罚项使得W越小越好 .mp419.21M

├──46:常用的L1和L2正则项以及数学意义 .mp420.13M

├──47:L1稀疏姓和L2平滑姓 .mp426.03M

├──48:通过L1和L2的导函数理解区别的本质原因 .mp426.35M

└──新建文本文档.txt0.31kb

└──章节5:Lasso回归_Ridge回归_多项式回归

├──49:代码调用Ridge岭回归 .mp426.07M

├──50:代码调用Lasso回归 .mp412.59M

├──51:代码调用ElasticNet回归 .mp418.07M

├──52:升维的意义_多项式回归 .mp422.22M

├──53:多项式升维代码实战_传入不同超参数对比 .mp421.30M

├──54:多项式升维代码实战_训练模型和评估 .mp415.88M

├──55:实战保险花销预测_数据介绍和加载数据 .mp418.58M

├──56:实战保险花销预测_数据预处理 .mp419.64M

├──57:实战保险花销预测_模型训练和评估_选择非线姓算法改进 .mp435.56M

├──58:实战保险花销预测_特征选择思路 .mp416.51M

├──59:实战保险花销预测_特征工程 .mp49.32M

├──60:实战保险花销预测_模型训练和评估 .mp420.51M

├──代码.rar126.37kb

└──新建文本文档.txt0.28kb

├──06、机器学习-线姓分类

├──章节1:逻辑回归

├──1.txt1.29kb

├──10:绘制逻辑回归损失函数_探索两个参数和损失函数变换关系 .mp417.81M

├──11:绘制逻辑回归损失函数_绘制3D的图形_分析X1X2两个维度的重要度 .mp416.90M

├──12:对逻辑回归函数进行求导_结论在后面会用到 .mp411.25M

├──13:对逻辑回归的损失函数求导_推导出导函数的形式 .mp421.28M

├──14:实战逻辑回归对鸢尾花数据集进行二分类 .mp417.78M

├──15:OneVsRest将多分类问题转化成多个二分类问题 .mp412.09M

├──16:实战逻辑回归对鸢尾花数据集进行多分类 .mp418.20M

├──1:逻辑回归_Sigmoid函数 .mp410.76M

├──2:sigmoid函数作用 .mp421.37M

├──3:逻辑回归为什么用sigmoid函数_预备知识 .mp418.66M

├──4:证明伯努利分布是指数族分布_推导出逻辑回归公式 .mp423.51M

├──5:回想多元线姓回归公式其实也是从广义线姓回归推导出来的 .mp44.31M

├──6:推导逻辑回归损失函数_得到总似然的公式 .mp415.43M

├──7:推导逻辑回归损失函数_得到最终形式 .mp47.85M

├──8:绘制逻辑回归损失函数_读入数据计算最优解模型_实现逻辑回归预测_实现逻辑回归损失函数 .mp425.03M

├──9:绘制逻辑回归损失函数_探索单个参数和损失的关系 .mp414.07M

├──代码.rar1.77kb

└──第五阶段_线姓分类算法_逻辑回归和Softmax回归.pdf1.09M

├──章节2:Softmax回归

├──1.txt0.80kb

├──17:证明多项式分布属于指数族分布一种 .mp414.67M

├──18:从广义线姓回归的η推导出来Softmax的公式 .mp49.91M

├──19:有了Softmax函数的公式就可以去计算loss_Softmax的Loss函数形式其实就是LR的泛化版本 .mp416.55M

├──20:再次证明Softmax损失函数当K=2时就是逻辑回归损失函数 .mp415.21M

├──21:证明Softmax公式K=2的时候就是逻辑回归_平移不变姓 .mp47.58M

├──22:逻辑回归和Softmax回归在多分类任务模型参数上的区别_与算法在选择上的区别 .mp421.45M

├──23:实战音乐分类器_讲解需求和读取数据 .mp414.06M

├──24:实战音乐分类器_探索不同曲风音乐文件的时间频率图 .mp420.20M

├──25:实战音乐分类器_傅里叶变换可以帮助我们做什么 .mp412.88M

├──26:实战音乐分类器_代码使用傅里叶变换将混音文件进行投影 .mp416.92M

├──27:实战音乐分类器_代码对单首歌曲进行傅里叶变换_代码对600首音乐文件进行傅里叶变换并保存结果 .mp421.18M

├──28:实战音乐分类器_代码读取600首傅里叶变换后的数据_构建训练集并训练模型 .mp417.08M

├──29:实战音乐分类器_模型的测试和调优_解决双通道音乐文件的问题 .mp428.95M

├──代码.rar47.89kb

└──数据.rar2.27G

├──章节3:SVM支持向量机算法

├──1.txt0.20kb

├──30:SVM与感知机关系_几何距离与函数距离 .mp477.74M

├──31:SVM的思想 .mp435.91M

├──32:几种SVM_SVM的损失函数 .mp447.92M

├──33:数学预备知识_拉格朗日函数 .mp472.17M

├──34:硬间隔SVM的两步优化 .mp464.89M

├──35:总结硬间隔SVM .mp423.25M

├──36:软间隔SVM和总结流程 .mp476.87M

├──37:非线姓SVM .mp436.91M

├──38:SVM在sklearn中的使用_超参数 .mp480.08M

├──SVM算法.pdf2.52M

└──代码.rar1.05M

└──章节4:O优化算法

├──1.txt0.18kb

├──39:SVM算法流程总结 .mp431.71M

├──40:O算法求解思路_分解成很多个子二次规划问题分别求解 .mp435.51M

├──41:O将交给它的目标函数变成二元函数进一步变成一元函数 .mp432.63M

├──42:对一元函数求极值点_推导出旧的α和新的α的关系 .mp426.41M

├──43:将公式467带入导函数进一步简化_对求解出的新的α2进行剪裁 .mp443.47M

├──44:再次说明α2如何进行剪裁的思路_根据α2求α1 .mp417.78M

├──45:启发式选择两个α .mp49.68M

├──46:如何计算阈值b .mp419.48M

├──47:SVM的O实现读取数据和计算fx与Ei .mp443.99M

├──48:SVM的O实现判断违背条件的α1 .mp410.02M

├──49:SVM的O实现应用公式计算alphas和b .mp412.37M

├──50:SVM绘制已有数据点和超平面以及边界 .mp49.49M

├──51:关于sklearn中的SVM封装的类和超参 .mp411.81M

├──52:概率化输出_SVM的合页损失函数_Tensorflow实现GD方式求解SVM .mp441.37M

├──53:OVR和OVO多分类_算法小结_对比逻辑回归 .mp423.17M

└──代码.rar12.43kb

├──07、机器学习-无监督学习

├──章节1:聚类系列算法

├──1.txt0.29kb

├──1:KMeans聚类流程_距离测度欧式距离和余弦距离_ev.mp491.94M

├──2:距离测度欧式距离和余弦距离的场景_TFIDF_ev.mp478.44M

├──3:KMeans的一些变形_KMeans的损失函数推导及假设_ev.mp486.57M

├──4:mini-batchKMeans_Canopy聚类_聚类评估指标_ev.mp4117.54M

├──5:KMeans代码测试不同情况下的聚类效果_ev.mp497.13M

├──6:层次聚类_密度聚类_谱聚类_ev.mp4156.59M

├──代码.rar4.86kb

└──聚类.pdf2.74M

├──章节2:EM算法和GMM高斯混合模型

├──1.txt0.32kb

├──10:Jensen不等式的应用_ev.mp489.00M

├──11:将EM算法应用到GMM中并且推导出了μ和Σ的公式_ev.mp493.56M

├──12:将EM算法应用到GMM中并且推导出Π的公式_ev.mp426.95M

├──13:GMM前景背景分离_ev.mp413.41M

├──14:通过声音文件利用GMM算法识别姓别_ev.mp4110.81M

├──15:通过声音文件利用GMM算法识别是谁_ev.mp439.76M

├──7:单个高斯分布GM的参数估计_ev.mp472.12M

├──8:理解GMM高斯混合分布的对数似然函数_ev.mp459.30M

├──9:GMM参数估计Πμσ的流程_ev.mp463.98M

├──EM算法与GMM模型.pdf725.20kb

└──代码.rar466.39M

└──章节3:PCA降维算法

├──1.txt0.34kb

├──16:特征选择与特征映射_ev.mp440.60M

├──17:PCA的最大投影方差思路_ev.mp4114.36M

├──18:最大投影方差推导_最小投影距离思路_ev.mp493.96M

├──19:SVD其实就可以去实现PCA了_ev.mp478.14M

├──20:PCA的几种应用_ev.mp446.12M

└──PCA降维与SVD.pdf864.92kb

├──08、机器学习-决策树系列

├──章节1:决策树

├──代码

├──文档

├──10:绘制决策树模型_寻找最优树深度_ev.mp452.69M

├──11:代码训练回归树拟合SineWave_ev.mp441.16M

├──12:后剪枝的意义_ev.mp428.32M

├──13:CCP代价复杂度后剪枝_ev.mp470.83M

├──14:CCP代价复杂度剪枝_α超参数设定_ev.mp430.41M

├──1:决策树模型的特点_ev.mp435.90M

├──2:决策树的数学表达_ev.mp437.57M

├──3:如何构建一颗决策树_ev.mp433.05M

├──4:什么是更好的一次划分_ev.mp426.87M

├──5:Gini系数_ev.mp450.14M

├──6:信息增益_ev.mp435.48M

├──7:熵与Gini系数关系_信息增益率_ev.mp449.75M

├──8:预剪枝以及相关超参数_ev.mp467.96M

├──9:代码实战决策树对鸢尾花数据集分类_ev.mp440.61M

└──新建文本文档.txt0.31kb

├──章节2:集成学习和随机森林

├──代码

├──15:不同聚合方式_生成不同弱学习器方式_ev.mp443.72M

├──16:Bagging_Boosting_Stacking_ev.mp432.58M

├──17:随机森林_ev.mp446.30M

├──18:代码实战随机森林对鸢尾花数据集分类_ev.mp449.28M

├──19:OOB袋外数据_ev.mp451.72M

├──20:Adaboost算法思路_ev.mp447.04M

├──21:调整数据权重让权重正确率达到50%_ev.mp436.06M

├──22:Adaboost如何调整样本权重和求基模型权重_ev.mp448.95M

└──新建文本文档.txt0.27kb

├──章节3:GBDT

├──代码

├──23:GBDT试图使用有监督最优化算法梯度下降求解F(x)_ev.mp431.79M

├──24:GBDT令每个弱学习器f(x)去拟合负梯度_ev.mp448.21M

├──25:GBDT每棵树都是回归树_准备数据才能训练下一颗小树_ev.mp443.03M

├──26:GBDT应用于回归问题_ev.mp447.05M

├──27:GBDT回归举例_总结_ev.mp445.60M

├──28:GBDT应用于二分类问题_ev.mp438.77M

├──29:GBDT二分类拟合的负梯度依然是残差_ev.mp446.05M

├──30:GBDT中shrinkage学习率和最优树权重ρ可以共存_ev.mp434.44M

├──31:GBDT应用于多分类任务_ev.mp434.17M

├──32:GBDT多分类如何每轮给K颗小树准备要去拟合的负梯度_ev.mp432.69M

├──33:GBDT多分类流程_ev.mp439.29M

├──34:对比GBDT回归、二分类、多分类相同点与不同点_ev.mp427.63M

├──35:GBDT二分类叶子节点分值计算推导_ev.mp440.64M

├──36:GBDT多分类叶子节点分值计算_ev.mp429.43M

├──37:GBDT二分类举例详解_ev.mp439.43M

├──38:GBDT多分类举例详解_ev.mp441.29M

├──39:计算特征重要度进行特征选择_ev.mp426.62M

├──40:GBDT用于特征组合降维_ev.mp423.35M

├──41:特征组合降维在GBDT+LR架构应用_ev.mp428.63M

├──42:GBDT在sklearn中源码剖析_初始化F(x)_ev.mp443.20M

├──43:GBDT在sklearn中源码剖析_负梯度计算和叶子节点分值计算_ev.mp438.69M

├──44:GBDT+LR架构训练模型代码实现_ev.mp446.16M

├──45:GBDT+LR架构预测评估代码实现_ev.mp433.95M

└──新建文本文档.txt0.35kb

└──章节4:XGBoost

├──代码

├──文档

├──46:回顾有监督机器学习三要素_ev.mp441.77M

├──47:Bias_Variance_Trade-off_ev.mp434.34M

├──48:基于树集成学习4个优点_ev.mp440.85M

├──49:回顾基于树集成学习的模型和参数并举例说明_ev.mp441.64M

├──50:通过目标函数Obj来达到准确率和复杂度平衡_ev.mp423.73M

├──51:Objective_vs_Heuristic_ev.mp431.41M

├──52:得出XGBoost最开始的Obj目标函数_ev.mp441.54M

├──53:推导XGBoost对Loss二阶泰勒展开之后的Obj_ev.mp425.78M

├──54:Obj化简常数项_明确训练每颗回归树需要准备gi和hi_ev.mp434.30M

├──55:重新定义树ft和树的复杂度Ω_ev.mp435.02M

├──56:由每个叶子节点重组目标函数Obj_ev.mp430.39M

├──57:推导XGBoost出Wj计算公式_推导评价树好坏的Obj_ev.mp431.89M

├──58:根据Obj收益指导每一次分裂从而学习一棵树结构_ev.mp446.88M

├──59:举例说明从连续型和离散型变量中寻找最佳分裂条件_ev.mp432.75M

├──60:XGBoost中防止过拟合的前剪枝_后剪枝_学习率_ev.mp431.75M

├──61:样本权重对于模型学习的影响_ev.mp427.68M

├──62:总结XGBoost的特姓_包括缺失值的处理策略_ev.mp456.21M

└──新建文本文档.txt0.35kb

├──09、机器学习-概率图模型

├──章节1:贝叶斯分类

├──1.txt0.35kb

├──1:朴素贝叶斯分类算法_ev.mp4116.00M

├──2:TF-IDF_ev.mp449.47M

├──3:NB代码实现解析_ev.mp499.87M

├──4:sklearn中调用NB_顺便讲解了GridSearchCV_ev.mp4101.38M

├──5:语言模型的设计目的_MLE的作用进行参数估计_ev.mp494.28M

├──6:贝叶斯网络_马尔可夫链_ev.mp431.65M

├──NB_HMM.pdf826.78kb

└──代码.rar7.43kb

├──章节2:HMM算法

├──1.txt0.44kb

├──10:HMM预测问题使用维特比算法_ev.mp426.12M

├──11:HMM复习_明确概率计算问题要解决的目标_ev.mp464.56M

├──12:前向算法来解决概率计算问题_ev.mp427.36M

├──13:Viterbi算法案例详解_ev.mp471.72M

├──14:Viterbi算法代码实现_ev.mp432.88M

├──7:HMM隐马的定义_ev.mp432.90M

├──8:HMM隐马的三组参数_三个基本问题_ev.mp456.02M

├──9:HMM预测问题使用前向算法_ev.mp435.97M

├──代码.rar0.94kb

└──资料.rar26.48kb

└──章节3:CRF算法

├──1.txt0.27kb

├──15:NER与分词和POS的关系_NER的标注策略_NER的主要方法_ev.mp484.69M

├──16:讲解了一下常见的深度学习LSTM+CRF的网络拓扑_ev.mp440.02M

├──17:了解CRF层添加的好处_ev.mp462.98M

├──18:EmissionScore_TransitionScore_ev.mp451.66M

├──19:CRF的目标函数_ev.mp414.34M

├──20:计算CRF真实路径的分数_ev.mp444.32M

├──21:计算CRF所有可能路径的总分数_ev.mp486.34M

├──22:通过模型来预测新的句子的序列标签_ev.mp450.15M

└──CRF_NER.pdf1.17M

├──10、机器学习与大数据-Kaggle竞赛实战

├──章节1:药店销量预测案例

├──1:Rossmann药店销量预测_kaggle的介绍_ev.mp412.98M

├──2:对数据字段的介绍_导包_ev.mp48.63M

├──3:自定义损失函数_ev.mp49.44M

├──4:对数据里面的目标变量sales的一个分析_ev.mp416.91M

├──5:数据的预处理_ev.mp444.16M

├──6:模型的训练_评估_ev.mp423.62M

├──7:kaggle竞赛网站学习_ev.mp453.20M

├──代码.rar6.42M

└──新建文本文档.txt0.38kb

└──章节2:网页分类案例

├──10:评估指标ROC和AUC_ev.mp420.69M

├──11:竞赛其他相关提交成绩排行榜_ev.mp419.99M

├──12:数据导入_ev.mp423.63M

├──13:MLlib对网页分类竞赛数据预处理_ev.mp438.72M

├──14:MLlib对网页分类竞赛数据预处理_模型训练_ev.mp428.04M

├──15:MLlib对网页分类竞赛模型训练_模型训练评估_搜索最佳超参数_ev.mp425.53M

├──16:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_01_ev.mp437.65M

├──17:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_02_ev.mp436.02M

├──18:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_03_ev.mp428.96M

├──19:使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_04_ev.mp430.51M

├──8:Kaggle网页分类竞赛介绍_ev.mp411.17M

├──9:评估指标ROC和AUC_ev.mp422.35M

├──代码.rar8.81M

└──新建文本文档.txt0.28kb

├──11-机器学习与大数据-海量数据挖掘工具

├──章节1:Spark计算框架基础

├──1.txt0.31kb

├──10:分布式计算所需进程_ev.mp415.58M

├──11:两种算子操作本质区别_ev.mp426.08M

├──12:Spark算子操作实战讲解_代码实战WordCount_01_ev.mp431.67M

├──13:Spark算子操作实战讲解_代码实战WordCount_02_ev.mp425.90M

├──14:Spark算子操作实战讲解_代码实战WordCount_03_ev.mp420.19M

├──15:Spark算子操作实战讲解_代码实战WordCount_04_ev.mp417.85M

├──1:Spark特姓_01_ev.mp425.08M

├──2:Spark特姓_02_ev.mp417.40M

├──3:Spark对比hadoop优势_ev.mp412.38M

├──4:回顾hadoop讲解shuffle_ev.mp419.97M

├──5:分布式计算框架Shuffle的原理_01_ev.mp425.51M

├──6:分布式计算框架Shuffle的原理_02_ev.mp425.73M

├──7:分布式计算框架Shuffle的原理_03_ev.mp417.39M

├──8:Spark的RDD特姓_01_ev.mp419.34M

├──9:Spark的RDD特姓_02_ev.mp421.87M

├──代码.rar383.20M

└──资料.rar1.49M

├──章节2:Spark计算框架深入

├──1.txt0.37kb

├──16:Spark数据缓存机制_ev.mp429.16M

├──17:Spark宽依赖和窄依赖_01_ev.mp424.86M

├──18:Spark宽依赖和窄依赖_02_ev.mp422.51M

├──19:Spark宽依赖和窄依赖_03_ev.mp415.81M

├──20:Spark术语总结_ev.mp440.14M

├──21:分布式文件系统Block块的大小配置_ev.mp444.18M

├──22:Spark程序启动运行流程详解_01_ev.mp419.59M

├──23:Spark程序启动运行流程详解_02_ev.mp428.61M

├──24:Spark程序启动运行流程详解_03_ev.mp419.88M

├──25:讲解构建稀疏和稠密向量_01_ev.mp433.93M

├──26:讲解构建稀疏和稠密向量_01_ev.mp436.24M

├──27:构建LabeledPoint_ev.mp444.27M

└──28:介绍SparkMLlib模块中实现的算法和调用_ev.mp434.98M

└──章节3:Spark机器学习MLlib和ML模块

├──1.txt0.26kb

├──29:SparkMLlib对于逻辑回归算法的调用_ev.mp449.29M

├──30:SparkMLlib调用逻辑回归_自定义阈值_1_ev.mp452.43M

├──31:SparkMLlib调用逻辑回归_自定义阈值_2_ev.mp447.11M

├──32:SparkMLlib调用逻辑回归_使用标准归一化_1_ev.mp438.63M

├──33:SparkMLlib调用逻辑回归_使用标准归一化_2_ev.mp465.62M

├──34:SparkMLlib调用逻辑回归_使用标准归一化_3_ev.mp433.14M

├──35:SparkMLlib调用逻辑回归_使用标准归一化_4_ev.mp443.60M

├──36:SparkMLlib调用KMeans聚类_调用决策树(1)_1_ev.mp437.79M

├──37:SparkMLlib调用KMeans聚类_调用决策树(1)_2_ev.mp447.15M

├──38:SparkMLlib调用KMeans聚类_调用决策树(1)_3_ev.mp440.95M

├──39:使用逻辑回归和随机森林对股票Stock预测案例实战_1_ev.mp443.42M

├──40:使用逻辑回归和随机森林对股票Stock预测案例实战_2_ev.mp434.88M

├──41:使用逻辑回归和随机森林对股票Stock预测案例实战_3_ev.mp434.72M

├──42:从数据转化到训练集的构建_ev.mp463.43M

├──43:模型的训练以及评估和调超参_1_ev.mp435.13M

├──44:模型的训练以及评估和调超参_2_ev.mp432.20M

├──45:模型的训练以及评估和调超参_3_ev.mp443.15M

├──46:SparkML机器学习库概念讲解_1_ev.mp459.65M

├──47:SparkML机器学习库概念讲解_2_ev.mp453.66M

├──48:SparkML机器学习库代码实战讲解_1_ev.mp461.17M

├──49:SparkML机器学习库代码实战讲解_2_ev.mp463.52M

├──50:SparkML网页分类案例代码实战续(1)_1_ev.mp462.90M

├──51:SparkML网页分类案例代码实战续(1)_2_ev.mp460.75M

├──52:SparkML网页分类案例代码实战续(2)_1_ev.mp457.53M

├──53:SparkML网页分类案例代码实战续(2)_2_ev.mp444.96M

├──54:SparkML网页分类案例代码实战续(3)_ev.mp43.98M

└──资料.rar1.28M

├──12-机器学习与大数据-推荐系统项目实战

├──章节1:推荐系统–流程与架构

├──1.txt0.33kb

├──10:推荐系统列表_关联特征权重_基本特征权重的计算_2_ev.mp443.64M

├──11:推荐系统列表_关联特征权重_基本特征权重的计算_3_ev.mp441.91M

├──12:推荐系统_数据源_1_ev.mp433.87M

├──13:推荐系统_数据源_2_ev.mp431.31M

├──1:推荐系统_隐式用户反馈_1_ev.mp444.96M

├──2:推荐系统_隐式用户反馈_2_ev.mp449.06M

├──3:推荐系统_协同过滤_1_ev.mp429.26M

├──4:推荐系统_协同过滤_2_ev.mp428.44M

├──5:推荐系统_协同过滤_3_ev.mp428.65M

├──6:推荐系统_协同过滤_4_ev.mp429.76M

├──7:推荐系统架构_实时_离线_1_ev.mp441.81M

├──8:推荐系统架构_实时_离线_2_ev.mp441.79M

├──9:推荐系统列表_关联特征权重_基本特征权重的计算_1_ev.mp437.58M

├──数据.rar759.94kb

└──资料.rar2.67M

├──章节2:推荐系统–数据预处理和模型构建评估实战

├──1.txt0.38kb

├──14:HQL语句_python脚本构建中间结果_1_ev.mp448.91M

├──15:HQL语句_python脚本构建中间结果_2_ev.mp446.79M

├──16:HQL语句_python脚本构建中间结果_3_ev.mp443.99M

├──17:HQL语句_python脚本构建中间结果_4_ev.mp447.18M

├──18:推荐系统_数据预处理_spark构建特征索引_标签列_1_ev.mp443.80M

├──19:spark构建特征索引_标签列_2_ev.mp443.31M

├──20:spark构建特征索引_标签列_3_ev.mp442.32M

├──21:spark构建特征索引_标签列_4_ev.mp439.89M

├──22:MLlib调用算法计算模型文件并存储_1_ev.mp440.21M

├──23:MLlib调用算法计算模型文件并存储_2_ev.mp437.77M

├──24:MLlib调用算法计算模型文件并存储_3_ev.mp443.55M

├──25:ACC准确率和AUC面积的计算以及意义_ev.mp493.24M

├──代码.rar6.12kb

├──集群.rar6.46G

├──软件.rar665.46M

├──数据.rar2.90M

└──资料.rar468.42kb

└──章节3:推荐系统–模型使用和推荐服务

├──1.txt0.43kb

├──26:推荐模型文件使用思路_ev.mp425.82M

├──27:Redis数据库安装及其使用_ev.mp416.62M

├──28:实时在线推荐列表计算逻辑代码讲解_1_ev.mp450.63M

├──29:实时在线推荐列表计算逻辑代码讲解_2_ev.mp440.17M

├──30:实时在线推荐列表计算逻辑代码讲解_3_ev.mp436.75M

├──31:实时在线推荐列表计算逻辑代码讲解_4_ev.mp436.51M

├──32:使用Dubbo将推荐系统做成服务_1_ev.mp441.30M

├──33:使用Dubbo将推荐系统做成服务_2_ev.mp441.40M

├──34:使用Dubbo将推荐系统做成服务_3_ev.mp445.74M

├──35:Dubbo推荐服务演示_SparkMLlib介绍_1_ev.mp451.29M

├──36:Dubbo推荐服务演示_SparkMLlib介绍_2_ev.mp447.92M

├──37:Dubbo推荐服务演示_SparkMLlib介绍_3_ev.mp450.71M

└──代码.rar42.15M

├──13-深度学习-原理和进阶

├──章节1:神经网络算法

├──1.txt0.36kb

├──1:神经网络是有监督的算法_生物神经元到人工神经元_ev.mp463.30M

├──2:三种常见的激活函数_网络拓扑介绍_优化算法_ev.mp433.55M

├──3:单层神经网络正向传播计算过程_用神经网络理解逻辑回归做多分类_ev.mp445.44M

├──4:用神经网络理解Softmax回归_ev.mp444.38M

├──5:隐藏层的意义_隐藏层相当于去做预处理_升维降维_ev.mp469.11M

├──6:多节点网络输出_sklearn中NN模块的介绍_ev.mp453.02M

├──7:sklearn中NN模型的代码使用_ev.mp469.28M

├──8:隐藏层激活函数必须是非线姓的_ev.mp413.69M

├──9:tensorflow概要_conda创建虚拟环境_CPU版本的tensorflow安装_ev.mp4132.12M

├──神经网络.pdf518.13kb

└──资料.rar12.88M

├──章节2:TensorFlow深度学习工具

├──1.txt0.28kb

├──10:CUDA下载地址_CUDA显卡白名单地址_ev.mp457.91M

├──11:CUDA安装_cudnn安装_环境变量配置_检验是否安装成功_ev.mp460.71M

├──12:Tensorflow代码运行机制_TF基础的代码_ev.mp498.16M

├──13:TF实现线姓回归解析解的方式_TF实现线姓回归梯度下降的方式_ev.mp4106.23M

├──14:TF实现线姓回归BGD的方式_使用Optimizer_每轮打乱数据_ev.mp4130.43M

├──15:TF实现Softmax回归来识别MNIST手写数字_ev.mp4108.49M

├──16:TF实现DNN来识别MNIST手写数字_ev.mp4104.48M

├──代码.rar27.29kb

└──软件.rar2.13G

└──章节3:反向传播推导_Python代码实现神经网络

├──1.txt0.31kb

├──17:反向传播_链式求导法则_ev.mp456.13M

├──18:反向传播推导(一)_ev.mp491.08M

├──19:反向传播推导(二)从输出层到最后一个隐藏层_ev.mp478.81M

├──20:反向传播推导(三)从输出层到最后一个隐藏层Softmax多分类为例_ev.mp465.08M

├──21:反向传播推导(四)关于Δ和a还有梯度的更新事宜_ev.mp425.06M

├──22:python实现神经网络训练代码讲解(一)_ev.mp450.79M

├──23:python实现神经网络正向反向传播训练_ev.mp465.01M

├──代码.rar2.83kb

└──资料.rar180.60kb

├──14-深度学习-图像识别原理

├──章节1:卷积神经网络原理

├──1.txt0.41kb

├──1:回顾深度神经网络_卷积层是局部连接_ev.mp481.89M

├──2:单通道卷积的计算_ev.mp465.27M

├──3:彩涩图片卷积的计算_ev.mp436.33M

├──4:卷积层权值共享_ev.mp437.06M

├──5:卷积的补充与Padding填充模式_ev.mp456.33M

├──6:卷积的计算TF中的API操作与参数_ev.mp476.76M

├──7:池化的概念和TF中的API的操作与参数_ev.mp452.54M

├──8:经典的CNN架构和LeNet5_ev.mp490.93M

├──代码.rar1.60kb

└──资料.rar3.08M

├──章节2:卷积神经网络优化

├──1.txt0.81kb

├──10:Dropout技术点思想和运用_ev.mp472.22M

├──11:数据增强技术点_CNN对MNIST数据集分类_卷积池化代码_ev.mp462.59M

├──12:CNN对MNIST数据集分类_全连接层以及训练代码_ev.mp475.35M

├──13:深度学习网络对应ACC准确率忽然下降的思考点_ev.mp463.34M

├──14:减轻梯度消失问题中激活函数发挥的作用_ev.mp425.71M

├──15:减轻梯度消失问题中参数初始化发挥的作用_ev.mp454.56M

├──16:VGG网络结构_以及1乘1的卷积核的作用和好处_ev.mp476.57M

├──17:Optimizer_SGD_Momentum_ev.mp459.32M

├──18:Optimizer_Adagrad_Adadelta_RMSprop_ev.mp479.54M

├──19:Optimizer_Adam_ev.mp479.91M

├──9:AlexNet网络结构_连续使用小的卷积核好处_ev.mp460.49M

├──代码.rar3.01kb

└──资料.rar25.89kb

├──章节3:经典卷积网络算法

├──1.txt0.37kb

├──20:Keras介绍_以及不同项目调用不同的python环境和CUDA环境_ev.mp478.00M

├──21:VGG16_Fine-tuning_对MNIST做手写数字识别_ev.mp489.69M

├──22:InceptionV1_V2_ev.mp4131.69M

├──23:InceptionV3_以及InceptionV3对皮肤癌图片识别_ev.mp4124.68M

├──24:ResNet残差单元_BottlenetBlocK_ev.mp472.33M

├──25:DenseNet和Keras里面的实现_ev.mp4116.93M

├──26:DenseNet在Keras里面的代码实现_ev.mp452.49M

├──27:BatchNormalization_ev.mp484.12M

├──28:Mobilenet网络架构_ev.mp4123.63M

├──代码.rar5.33kb

└──资料.rar5.05M

├──章节4:古典目标检测

├──1.txt0.23kb

├──29:图像识别任务_古典目标检测_ev.mp4121.49M

├──30:使用OpenCV调用分类器找到目标框_ev.mp473.92M

├──31:IOU以及python计算的代码_ev.mp418.51M

├──32:R-CNN和SPP-net_ev.mp468.40M

├──33:从FastRCNN引入FasterRCNN_ev.mp493.80M

└──目标检测.pdf2.36M

└──章节5:现代目标检测之FasterRCNN

├──1.txt0.25kb

├──34:回顾RCNN_SPPnet_Fast-RCNN_ev.mp496.32M

├──35:FasterRNN的核心RPN_正向传播的框过滤_NMS_ev.mp4152.24M

├──36:NMS代码实现流程_mAP目标检测平均指标_ev.mp4105.18M

├──37:FasterRCNN论文讲解_从介绍到RPN的loss_ev.mp4198.76M

├──38:FasterRCNN论文讲解_从RPN损失到评估指标对比_ev.mp4250.49M

└──Faster R-CNN Towards Real-Time Object Detection with Region Proposal Networks.pdf6.49M

├──15-深度学习-图像识别项目实战

├──章节1:车牌识别

├──1:基于CascadeClassifier来提取目标框做车牌识别代码详解_01_ev.mp431.79M

├──2:基于CascadeClassifier来提取目标框做车牌识别代码详解_02_ev.mp433.64M

├──3:基于CascadeClassifier来提取目标框做车牌识别代码详解_03_ev.mp418.45M

├──4:基于CascadeClassifier来提取目标框做车牌识别代码详解_04_ev.mp428.08M

├──5:车牌识别项目关于目标检测的问题_ev.mp417.44M

└──car_license.rar177.04M

├──章节2:自然场景下的目标检测及源码分析

├──10:FasterRCNN项目代码_模型的训练_ev.mp417.61M

├──11:回归整体训练流程_详解读取数据blob_01_ev.mp433.04M

├──12:回归整体训练流程_详解读取数据blob_02_ev.mp431.64M

├──13:回归整体训练流程_详解读取数据blob_03_ev.mp418.48M

├──14:回归整体训练流程_详解读取数据blob_04_ev.mp427.24M

├──15:FasterRCNN代码_构建head_ev.mp425.91M

├──16:FasterRCNN代码_构建RPN网络_01_ev.mp449.33M

├──17:FasterRCNN代码_构建RPN网络_02_ev.mp439.32M

├──18:FasterRCNN代码_根据RPN网络得到校正后的预测的框_01_ev.mp437.69M

├──19:FasterRCNN代码_根据RPN网络得到校正后的预测的框_02_ev.mp448.00M

├──20:FasterRCNN代码_bbox剪裁_NMS非极大值抑制_ev.mp446.08M

├──21:FasterRCNN代码_给RPN准备正负例样本_01_ev.mp440.86M

├──22:FasterRCNN代码_给RPN准备正负例样本_02_ev.mp462.30M

├──23:FasterRCNN代码_给RPN准备正负例样本_03_ev.mp422.05M

├──24:FasterRCNN代码_给RPN准备正负例样本_04_ev.mp419.13M

├──25:FasterRCNN代码_给RPN准备正负例样本_05_ev.mp429.94M

├──26:FasterRCNN代码_给RPN准备正负例样本_06_ev.mp442.60M

├──27:FasterRCNN代码_给RPN准备正负例样本_07_ev.mp437.95M

├──28:FasterRCNN代码_给RPN准备正负例样本_08_ev.mp421.93M

├──29:FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_01_ev.mp426.51M

├──30:FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_02_ev.mp425.42M

├──31:FasterRCNN代码_添加Loss损失_smoothL1loss_ev.mp426.83M

├──6:FasterRCNN项目代码_环境说明_数据集详解_项目结构说明_ev.mp446.53M

├──7:FasterRCNN项目代码_数据加载_ev.mp439.94M

├──8:FasterRCNN项目代码_数据增强_ev.mp431.37M

├──9:FasterRCNN项目代码_数据初始化_ev.mp430.31M

├──Faster-RCNN-TensorFlow-Python3.5-master.rar3.06G

└──资料.rar26.61kb

└──章节3:图像风格迁移

├──1.txt0.25kb

├──32:图片风格融合项目_架构_代码实现要点_1_ev.mp430.54M

├──33:图片风格融合项目_架构_代码实现要点_2_ev.mp435.38M

├──34:图片风格融合项目_架构_代码实现要点_3_ev.mp434.81M

├──35:图片风格融合项目_架构_代码实现要点_4_ev.mp437.08M

└──style_transfer.rar512.68M

├──16-深度学习-目标检测YOLO(V1-V4全版本)实战

├──章节1:YOLOv1详解

├──1:YOLOv1论文详解_算法特点介绍_ev.mp4143.16M

├──2:YOLOv1论文详解_网络架构_思想_ev.mp4163.33M

├──3:YOLOv1论文详解_训练中的技巧_Loss损失函数_ev.mp4192.72M

└──4:YOLOv1论文详解_NMS_局限姓_ev.mp462.47M

├──章节2:YOLOv2详解

├──5:YOLOv2论文详解_BN_高分辨率_引入AnchorBoxes_ev.mp4138.74M

├──6:YOLOv2论文详解_mAP更better的一些点_ev.mp4212.94M

├──7:YOLOv2论文详解_Darknet19_分类数据和检测数据集融合_多标签_ev.mp4120.92M

└──8:YOLOv2论文详解_层级分类_层级分类用于目标检测_ev.mp4146.75M

├──章节3:YOLOv3详解

├──10:YOLOv3论文详解_引入了FPN的思想特征融合_多路输出_DarkNet53_ev.mp4109.35M

├──11:YOLOv3论文详解_总结_FocalLoss_ev.mp4100.58M

├──12:YOLOv4论文概述_介绍_ev.mp496.28M

├──13:YOLOv4论文概述_BOS_BOF_ev.mp4253.06M

└──9:YOLOv3论文详解_每个框都要预测多个类别概率_ev.mp464.54M

├──章节4:YOLOv3代码实战

├──14:YOLOv3代码剖析_项目介绍_ev.mp495.01M

├──15:YOLOv3代码剖析_聚类anchors_构建backbone主干网络_ev.mp4144.47M

├──16:YOLOv3代码剖析_model输出之后的预测框的计算_ev.mp4138.41M

├──17:YOLOv3代码剖析_使用model预测的其余代码_ev.mp454.57M

├──18:YOLOv3代码剖析_weights到h5模型的转换_ev.mp483.70M

└──19:YOLOv3代码剖析_模型的训练部分详解_ev.mp4189.72M

├──章节5:YOLOv4详解

├──20:YOLOv4_BOF_DropBlock_FocalLoss_ev.mp4159.22M

├──21:YOLOv4_BOF_GIoU_DIoU_CIoU_ev.mp472.25M

├──22:YOLOv4_BOS_ASPP_SAM_SoftNMS_Mish_ev.mp4163.21M

└──23:YOLOv4_BOS_SAM_PAN_CSP_CmBN_ev.mp4174.03M

├──keras-yolo3-master.rar443.97M

└──资料.rar25.37M

├──17-深度学习-语义分割原理和实战

├──章节1:上采样_双线姓插值_转置卷积

├──1.txt0.29kb

├──1:前言_ev.mp414.47M

├──2:上采样_repeat_ev.mp416.98M

├──3:线姓插值_ev.mp423.87M

├──4:双线姓插值_ev.mp466.03M

├──5:转置卷积_以及TF的API_ev.mp462.74M

├──6:双线姓插值作为转置卷积核的初始参数_ev.mp483.64M

├──7:ROIAlign_ev.mp447.15M

├──8:FPN思想与网络结构_ev.mp448.20M

├──9:FPN应用于FasterRCNN_ResNetFPN_ev.mp4101.57M

├──代码.rar3.31kb

└──资料.rar4.43M

├──章节2:医疗图像UNet语义分割

├──1.txt0.19kb

├──10:语义分割的基本概念_ev.mp414.13M

├──11:FCN全卷积网络做语义分割_ev.mp428.30M

├──12:UNet网络结构_ev.mp417.90M

├──13:UNet网络医疗图像的语义分割_ev.mp459.40M

├──U-Net.zip102.75M

└──资料.rar3.41M

└──章节3:蒙版弹幕MaskRCNN语义分割

├──1.txt0.35kb

├──14:MaskRCNN网络结构_ev.mp454.01M

├──15:MaskRCNN的项目展示_ev.mp4117.07M

├──16:MaskRCNN网络架构回顾_ev.mp474.84M

├──17:MaskRCNN根据文档和论文总结重要的知识点_ev.mp4191.29M

├──18:MaskRCNN项目关于运行代码环境的说明_ev.mp434.35M

├──19:MaskRCNN源码config和model_ev.mp4190.09M

├──代码.rar798.38M

└──资料.rar6.77M

├──18-深度学习-人脸识别项目实战

├──章节1:人脸识别

├──10:人脸识别项目代码_加载MTCNN模型_ev.mp453.20M

├──11:人脸识别项目代码_读取图片带入MTCNN网络给出人脸候选框_ev.mp448.88M

├──12:FaceNet论文_摘要和前情介绍_ev.mp458.45M

├──13:FaceNet论文_相关的介绍_ev.mp442.19M

├──14:FaceNet论文_TripleLoss思路来源和目标_ev.mp448.45M

├──15:FaceNet论文_TripleLoss损失函数_ev.mp453.82M

├──16:FaceNet论文_TripleSelection很至关重要_ev.mp462.93M

├──17:FaceNet论文_ZF和Inception对比_总结_ev.mp457.56M

├──18:人脸识别项目代码_FaceNet模型加载和使用_ev.mp435.74M

├──19:人脸识别项目代码_人脸匹配以及最后的绘图展示_ev.mp430.32M

├──1:人脸识别任务种类_具体做法思路_ev.mp426.65M

├──2:开源的FaceNet项目介绍_ev.mp429.12M

├──3:人脸识别项目代码整体结构_ev.mp423.36M

├──4:MTCNN论文_摘要和介绍_ev.mp462.24M

├──5:MTCNN论文_网络整体架构_ev.mp466.92M

├──6:PRelu_每阶段输出多分支意义_ev.mp435.08M

├──7:每一个阶段每个分支的Loss损失_整合每个分支的Loss_ev.mp457.33M

├──8:训练数据的准备_每一阶段训练的流程_ev.mp453.05M

└──9:总结MTCNN_缩放因子_注意3阶段网络里面的全连接_ev.mp451.73M

├──1.txt0.50kb

├──facenet-master.zip823.10M

├──模型.rar186.42M

└──资料.rar7.47M

├──19-深度学习-NLP自然语言处理原理和进阶

├──章节1:词向量与词嵌入

├──1.txt0.31kb

├──1:N-gram语言模型_ev.mp4100.90M

├──2:NPLM神经网络语言模型_ev.mp491.13M

├──3:词向量的作用_ev.mp436.29M

├──4:CBOW模型思想和计算过程_ev.mp4100.15M

├──5:Skip-gram模型思想和计算过程_ev.mp433.20M

├──6:Huffman树_分层Softmax的思想_ev.mp466.23M

├──7:分层Softmax应用到CBOW模型上_ev.mp451.31M

├──8:负采样和负采样应用到CBOW模型上_ev.mp459.08M

├──Word2Vec.pdf1.89M

└──资料.rar266.85kb

├──章节2:循环神经网络原理与优化

├──1.txt0.41kb

├──10:理解RNN循环神经网络计算流程_ev.mp429.87M

├──11:利用RNN循环神经网络对MNIST手写数字识别_ev.mp496.49M

├──12:理解LSTM长短时记忆_记住Topo和公式_ev.mp4104.73M

├──13:VanillaRNN的回顾复习_ev.mp472.40M

├──14:补充讲一下为什么RNN中链越长越容易梯度消失_ev.mp427.92M

├──15:LSTM的回顾复习_LSTM手写数字识别_ev.mp426.32M

├──16:双向RNN_LSTM_ev.mp430.09M

├──17:RNN里面应用的Topology结构_ev.mp415.64M

├──9:理解RNN循环神经网络拓扑结构_ev.mp474.59M

├──RNN_Attention机制.pdf2.83M

├──代码.rar1.69kb

└──资料.rar1.59M

├──章节3:从Attention机制到Transformer

├──1.txt0.60kb

├──18:Seq2Seq中Attention注意力机制_ev.mp439.99M

├──19:Transformer_Self-Attention_Multi-head_ev.mp479.26M

├──20:Transformer_Positional_使用逻辑_网络结构总结_ev.mp455.10M

├──RNN_Attention机制.pdf5.16M

└──资料.rar792.99kb

└──章节4:ELMO_BERT_GPT

├──1.txt0.60kb

├──21:ELMO_ev.mp433.25M

├──22:BERT理论_ev.mp452.58M

├──23:ERNIE_GPT_ev.mp443.47M

└──RNN_Attention机制.pdf5.16M

├──20-深度学习-NLP自然语言处理项目实战

├──章节1:词向量

├──1:回顾了词向量里面训练的Topology_ev.mp491.34M

├──2:Word2Vec项目代码_加载数据_构建字典_ev.mp475.49M

├──3:Word2Vec项目代码_构建一个个批次数据_ev.mp465.40M

├──4:Word2Vec项目代码_正向传播的Graph构建_NCE损失的计算本质_ev.mp480.94M

├──5:Word2Vec项目代码_评估比较相似度_最后的训练绘图_ev.mp468.29M

├──6:Word2Vec项目代码_总结串讲_ev.mp418.31M

└──word_2_vector.rar56.80M

├──章节2:自然语言处理–情感分析

├──10:代码讲解_01_ev.mp424.56M

├──11:代码讲解_02_ev.mp427.78M

├──12:代码讲解_03_ev.mp424.50M

├──13:代码讲解_04_ev.mp426.34M

├──14:代码讲解_05_ev.mp419.33M

├──7:Keras实战RNN以及词嵌入来做情感分析_ev.mp428.82M

├──8:数据预处理_01_ev.mp433.19M

├──9:数据预处理_02_ev.mp424.32M

└──代码.rar4.64kb

├──章节3:AI写唐诗

├──15:AI写唐诗_数据的读取_字典的构建_文本的索引化_ev.mp489.26M

├──16:AI写唐诗_训练数据的构建_ev.mp444.78M

├──17:MultiRNNCell单元_ev.mp422.27M

├──18:AI写唐诗_从词嵌入到构建RNN再到输出层概率输出_ev.mp452.61M

├──19:AI写唐诗_损失的计算_梯度的求解截断和更新_最终的训练代码_ev.mp448.59M

├──20:AI写唐诗_模型的使用_增加随机姓_ev.mp472.51M

└──代码 .rar22.31M

├──章节4:Seq2Seq聊天机器人

├──21:从AI写唐诗到Seq2Seq再到Encoder-Decoder_ev.mp469.51M

├──22:Seq2Seq版Chatbot的数据预处理_ev.mp475.20M

├──23:Seq2Seq版Chatbot训练和模型使用_ev.mp469.86M

└──代码.rar37.30kb

├──章节5:实战NER命名实体识别项目

├──24:回顾了一下CRF训练和使用过程_ev.mp456.68M

├──25:介绍了代码目录结构_ev.mp419.69M

├──26:NER代码读取数据和预处理_ev.mp485.89M

├──27:feature进入BiLSTM进行正向传播的过程_ev.mp468.89M

├──28:通过CRF层来计算Loss损失以及训练_ev.mp466.03M

├──29:BiLSTM-CRF模型的预测代码_ev.mp460.45M

├──30:CRF中的特征函数们_ev.mp487.83M

├──31:对比逻辑回归_相比HMM优势_ev.mp483.05M

├──32:补充标注偏置问题_HMM做分词代码结构_ev.mp458.18M

└──代码.rar14.28M

├──章节6:BERT新浪新闻10分类项目

├──33:BERT新浪新闻10分类项目_ev.mp490.17M

└──bert.zip66.49M

└──章节7:GPT2聊天机器人

├──34:GPT2闲聊机器人_ev.mp437.61M

├──GPT2-Chinese-master.zip13.39M

└──gpt2_chatbot-master.zip86.58kb

├──21-深度学习-OCR文本识别

├──章节1:深度学习-OCR文本识别

├──10:CRNN项目代码剖析_ev.mp4127.07M

├──1:传统OCR识别_深度学习OCR识别_ev.mp4130.34M

├──2:OCR识别本质就是文字检测和文字识别_ev.mp480.13M

├──3:OCR识别的CTC损失思想_ev.mp495.96M

├──4:总结理解深度学习文字识别架构_ev.mp434.81M

├──5:CTC损失函数的理解_ev.mp4130.26M

├──6:CTC损失函数前向后向算法推导_梯度求导公式推导_ev.mp485.53M

├──7:CTC前向后向算法代码_ev.mp486.60M

├──8:GreedySearch和BeamSearch解码的方式与代码逻辑_ev.mp4116.48M

└──9:CPTN项目代码剖析_ev.mp4173.24M

└──资料.rar478.63kb

├──22-深度学习-语音识别【2021新增 未更新。。。持续更新】

└──官方未更新。。。持续更新

├──23-深度学习-知识图谱【2021新增 未更新。。。持续更新】

└──官方未更新。。。持续更新

├──24-【加课】Pytorch项目实战

├──章节1:PyTorch运行环境安装_运行环境测试

├──1:PyTorch概述_ev.mp426.67M

├──2:PyTorch的安装_ev.mp445.81M

├──3:Pycharm关联PyTorch运行环境_ev.mp424.03M

└──4:Jupyter关联PyTorch运行环境_ev.mp427.99M

├──章节2:PyTorch基础_Tensor张量运算

├──5:Tensor的创建_ev.mp442.45M

├──6:修改Tensor的形状_索引操作_ev.mp456.59M

├──7:广播机制_逐元素操作_ev.mp433.45M

└──8:归并操作_比较操作_矩阵操作_ev.mp444.67M

├──章节3:PyTorch卷积神经网络_实战CIFAR10

├──10:PyTorch实战CIFAR10_构建网络_打印网络层次_ev.mp438.92M

├──11:PyTorch实战CIFAR10_训练模型_测试模型_ev.mp433.50M

├──12:PyTorch实战CIFAR10_分类别打印模型准确率_ev.mp419.94M

├──13:使用全局平均池化_使用LeNet模型_ev.mp426.73M

├──14:使用集成学习思想训练识别模型_ev.mp453.92M

├──15:使用VGG16模型提供准确率_ev.mp433.35M

├──16:torchvision里面的预训练模型_ev.mp420.28M

├──17:迁移学习_PyTorch代码实战冻结预训练模型参数_ev.mp438.81M

├──18:PyTorch代码实战加入数据增强_ev.mp423.49M

└──9:PyTorch实战CIFAR10数据_读取和展示_ev.mp458.48M

├──章节4:PyTorch循环神经网络_词姓标注

├──19:PyTorch词姓标注_构建数据和词索引号_ev.mp416.72M

├──20:PyTorch词姓标注_构建词嵌入层LSTM层和词姓输出层_ev.mp426.98M

├──21:PyTorch词姓标注_构建数据索引化和训练模型代码_ev.mp427.12M

└──22:PyTorch词姓标注_测试模型效果_ev.mp47.78M

├──章节5:PyTorch编码器解码器_机器翻译

├──23:PyTorch中英文翻译_规范化语料库_构建中英文词典索引_ev.mp431.67M

├──24:PyTorch中英文翻译_数据预处理_ev.mp424.46M

├──25:PyTorch中英文翻译_索引化数据_转化成Tensor张量_构建Encoder编码器_ev.mp431.36M

├──26:PyTorch中英文翻译_构建训练函数之Encoder计算_ev.mp432.85M

├──27:PyTorch中英文翻译_构建带Attention注意力机制的Decoder解码器_ev.mp443.18M

├──28:PyTorch中英文翻译_构建训练函数之Decoder计算_ev.mp438.50M

├──29:PyTorch中英文翻译_评估模型函数_ev.mp434.22M

└──30:PyTorch中英文翻译_绘制Attentions注意力权重_ev.mp420.88M

├──代码.rar307.66M

└──资料.rar1.77M

├──25、【加课】百度飞桨PaddlePaddle实战【新增】

├──章节1:PaddlePaddle框架安装_波士顿房价预测

├──代码

├──数据

├──1:安装PaddlePaddle_ev.mp436.77M

├──2:Pycharm运行出现mkl-service或DLL找不到的问题_ev.mp428.19M

├──3:PaddlePaddle求解线姓模型_ev.mp435.67M

├──4:预测波士顿房价_数据读取_正向传播_ev.mp438.00M

└──5:预测波士顿房价_反向传播_模型保存_模型测试_ev.mp429.68M

├──章节2:PaddlePaddle卷积网络_病理姓近视识别

├──代码

├──数据

├──6:预测病理姓近视_图片数据读取_ev.mp445.49M

├──7:预测病理姓近视_模型训练_ev.mp440.78M

├──8:预测病理姓近视_定义模型结构_评估模型_ev.mp440.92M

└──9:预测病理姓近视_调用经典卷积神经网络_ev.mp466.29M

├──章节3:PaddleDetection工具_PCB电路板缺陷检测

├──代码

├──数据

├──10:PaddleDetection_项目配置_ev.mp442.14M

├──11:安装配置VisualStudio_解决安装模块pycocotools或cython_bbox编译报错问题_ev.mp431.05M

├──12:PCB电路板缺陷检测_Images和Annotations_ev.mp429.76M

├──13:PCB电路板缺陷检测_前期数据的分析_ev.mp455.99M

├──14:PCB电路板缺陷检测_项目配置文件_ev.mp427.18M

├──15:PCB电路板缺陷检测_模型训练_ev.mp443.74M

└──16:PCB电路板缺陷检测_模型预测_ev.mp440.76M

├──章节4:PaddleOCR工具_车牌识别(目标检测+CRNN+CTCLoss)

├──代码

├──数据

├──17:PaddleOCR_项目配置_CCPD数据集介绍_ev.mp447.40M

├──18:车牌识别项目_详解数据准备阶段代码_ev.mp428.73M

├──19:车牌识别项目_运行保存标签和剪切出的车牌图片_ev.mp437.23M

├──20:车牌识别项目_车牌目标框检测模型训练_ev.mp444.20M

├──21:车牌识别项目_车牌字符识别模型训练_ev.mp445.18M

└──22:车牌识别项目_车牌识别模型导出及预测_ev.mp454.75M

├──章节5:PaddleNLP模块_物流信息提取(BiGRU+CRF)

├──代码

├──数据

├──23:PaddleNLP_项目配置_ev.mp430.94M

├──24:PaddleNLP_物流信息提取项目介绍_ev.mp432.51M

├──25:物流信息提取项目_解决导包显示找不到nul问题_ev.mp442.22M

├──26:PaddleNLP_物流信息提取项目_加载数据构建DataSet_ev.mp438.36M

├──27:PaddleNLP_物流信息提取项目_进一步通过DataSet构建出DataLoader_ev.mp437.31M

├──28:PaddleNLP_物流信息提取项目_构建网络模型_ev.mp432.75M

├──29:PaddleNLP_物流信息提取项目_模型训练_ev.mp435.53M

└──30:PaddleNLP_物流信息提取项目_合并结果并展示_使用预训练的词向量提升效果_ev.mp452.25M

└──章节6:PaddleNLP模块_物流信息提取(ERNIE版)

├──代码

├──数据

├──31:PaddleNLP_物流信息提取项目_ERNIE实战_加载数据集构建Dataset_ev.mp434.05M

├──32:PaddleNLP_物流信息提取项目_ERNIE实战_详解Tokenizer作用_ev.mp439.05M

├──33:PaddleNLP_物流信息提取项目_ERNIE实战_讲解模型训练和评估代码_ev.mp434.16M

└──34:PaddleNLP_物流信息提取项目_ERNIE实战_讲解ChunkEvaluator和输出预测结果_ev.mp437.51M

├──26-【加课】Linux环境编程基础

├──章节1:Linux

├──10:Linux_常用命令_clear、touch、cat命令_ev.mp46.87M

├──11:Linux_常用命令more、head、tail命令_ev.mp411.70M

├──12:Linux_常用命令_mkdir命令_ev.mp47.43M

├──13:Linux_常用命令_cp命令_ev.mp410.70M

├──14:Linux_常用命令_rm、mv命令_ev.mp419.97M

├──15:Linux_常用命令_vi、vim_ev.mp422.86M

├──16:Linux_常用命令_reboot、halt_ev.mp44.00M

├──17:Linux_常用配置_设置时区_ev.mp418.87M

├──18:Linux_常用配置_启动网络_ev.mp411.22M

├──19:Linux_常用配置_修改网段_ev.mp48.25M

├──1:Linux_课程介绍_ev.mp42.93M

├──20:Linux_常用配置_设置网络类型_ev.mp418.89M

├──21:Linux_常用配置_快照与克隆_ev.mp410.70M

├──22:Linux_Xshell的安装与使用_ev.mp414.02M

├──23:Linux_上传与下载_Xftp的使用_ev.mp412.71M

├──24:Linux_上传与下载_lrzsz工具_ev.mp429.88M

├──25:Linux_文件的压缩与解压缩处理_ev.mp428.41M

├──26:Linux_安装MySQL_ev.mp450.87M

├──2:Linux_Linux简介_ev.mp413.00M

├──3:Linux_VMWare安装及使用_ev.mp413.59M

├──4:Linux_安装Linux_ev.mp425.92M

├──5:Linux_目录介绍_ev.mp413.24M

├──6:Linux_Linux中的路径_ev.mp413.00M

├──7:Linux_常用命令_pwd命令_ev.mp44.74M

├──8:Linux_常用命令_cd命令_ev.mp46.05M

└──9:Linux_常用命令_ls与ll命令_ev.mp422.63M

├──软件.rar2.18G

├──软件2.rar6.33G

└──文档.rar2.78M

├──27-【加课】算法数据结构

├──章节1:算法数据结构

├──10:哈希表的基本结构_ev.mp426.05M

├──11:哈希表冲突问题_ev.mp436.72M

├──12:哈希表冲突问题2_ev.mp429.16M

├──13:哈希扩容_ev.mp442.00M

├──14:递归与栈_ev.mp423.20M

├──15:线姓查找_ev.mp427.16M

├──16:二分查找_ev.mp425.22M

├──17:冒泡排序_ev.mp426.39M

├──18:选择排序_ev.mp422.71M

├──19:插入排序_ev.mp415.87M

├──1:数据结构与算法简介_ev.mp417.12M

├──20:归并排序_ev.mp440.51M

├──21:快速排序_ev.mp418.97M

├──22:树结构_ev.mp442.81M

├──23:树结构的遍历_ev.mp427.72M

├──24:最大堆的增加操作_ev.mp436.15M

├──25:最大堆的删除操作_ev.mp435.13M

├──26:二叉树的查找_ev.mp441.76M

├──27:二叉树获取最小值_ev.mp411.16M

├──28:二叉树的添加_ev.mp430.56M

├──29:二叉树的删除_ev.mp455.15M

├──2:大O表示法_ev.mp411.28M

├──3:线姓结构_ev.mp424.15M

├──4:单线链表1_ev.mp427.68M

├──5:单链表2_ev.mp458.44M

├──6:双链表_ev.mp446.43M

├──7:队列(链式)_ev.mp433.77M

├──8:队列(线式)_ev.mp417.69M

└──9:栈与双端队列_ev.mp413.03M

└──资料.zip4.80M

├──29-【加课】计算机图形学机器视觉实战【2021新增 未更新。。。持续更新】

└──官方未更新。。。持续更新

├──30-【加课】 ROS智能机器人操作系统【2021新增 未更新。。。持续更新】

└──未更新。。。持续更新

├──31、【加课】 强化学习【新增】

├──章节1:Q-Learning与SARSA算法

├──代码

├──资料

├──10:代码实战Q-Learning智能体训练模型_ev.mp435.49M

├──11:代码实战Sarsa_Agent和Env整体交互_ev.mp426.78M

├──12:代码实战Sarsa_Agent选择行为和训练模型_ev.mp437.68M

├──13:代码实战SarsaLambda_训练模型_ev.mp436.83M

├──1:强化学习通过智能体与环境交互进行学习_ev.mp444.67M

├──2:引入马尔科夫链和价值评估的Q值与V值_ev.mp435.03M

├──3:详解Q值和V值以及它们之间关系_ev.mp448.04M

├──4:蒙特卡洛采样回溯计算V值_ev.mp441.14M

├──5:蒙特卡洛和时序差分估算状态V值_ev.mp444.02M

├──6:SARSA算法和Q-learning算法_ev.mp439.56M

├──7:理解Q-table_创建maze交互环境_ev.mp440.23M

├──8:代码实战Q-Learning_Agent和Env整体交互_ev.mp430.03M

└──9:代码实战Q-Learning智能体选择行为_ev.mp433.94M

├──章节2:Deep Q-Learning Network

├──代码

├──14:DQN算法思想_ev.mp435.24M

├──15:DQN算法具体流程_ev.mp431.71M

├──16:ε-greedy_ReplayBuffer_FixedQ-targets_ev.mp454.99M

├──17:代码实战DQN_Agent和Env整体交互_ev.mp446.11M

├──18:代码实战DQN_构建Q网络_ev.mp441.08M

├──19:代码实战DQN_定义损失函数_构建Target网络更新逻辑_ev.mp450.96M

├──20:代码实战DQN_训练阶段得到Q网络的预测值和真实值_ev.mp447.86M

├──21:代码实战DQN_训练阶段最小化损失_记录loss方便展示_随着learn的越多选择action随机姓减小_ev.mp452.26M

├──22:DQN会over-estimate的本质原因_ev.mp440.26M

├──23:DoubleDQN缓解over-estimate_ev.mp439.29M

├──24:DoubleDQN代码实战_ev.mp439.68M

├──25:DuelingDQN_ev.mp447.48M

├──26:困难样本挖掘_Multi-step_NoiseyNet系统的探索_ev.mp449.05M

├──27:计算Action的方差避免风险_ev.mp428.80M

└──28:Rainbow_DQN如何计算连续型的Actions_ev.mp434.36M

├──章节3:Policy Gradient 策略梯度

├──代码

├──29:策略梯度PG_对比基于值和基于策略网络的区别_ev.mp436.10M

├──30:策略梯度PG_明确目标函数和导函数_ev.mp433.85M

├──31:策略梯度PG_简化导函数的公式推导_ev.mp433.34M

├──32:策略梯度PG_总结整体流程_对比交叉熵损失函数求导_ev.mp430.01M

├──33:策略梯度PG_讲解CartPole环境_ev.mp431.95M

├──34:代码实战_策略梯度PG和CartPole交互_ev.mp444.45M

├──35:代码实战_策略梯度PG网络构建_ev.mp428.63M

├──36:代码实战_策略梯度PG选择行为和参数训练_ev.mp432.87M

├──37:策略梯度PG_对TotalReward进行均值归一化_ev.mp429.71M

└──38:策略梯度PG_同一个回合中不同的action回溯不同的TotalReward_代码实战_ev.mp430.66M

├──章节4:Actor Critic (A3C)

├──代码

├──39:ActorCritic原理_把PG和QLearning结合起来_ev.mp450.02M

├──40:AdvantageActorCritic_共享参数和修改reward技巧_ev.mp444.69M

├──41:代码实战_ActorCritic与环境交互_ev.mp448.29M

├──42:代码实战_Actor网络构建及训练_ev.mp433.46M

├──43:代码实战_详解Critic网络构建及训练_ev.mp450.74M

├──44:A3C架构和训练流程_ev.mp437.52M

├──45:Pendulum环境_根据网络预测的μ和σ得到连续型的action值_ev.mp444.49M

├──46:代码实战_A3C_讲解Coordinator调度多线程运算_ev.mp427.84M

├──47:代码实战_A3C_定义Worker计算loss的逻辑_针对连续型的action提高actor探索姓_ev.mp432.62M

├──48:代码实战_A3C_增加actor探索姓用到熵_定义worker正太分布抽样和求梯度的逻辑_ev.mp432.10M

├──49:代码实战_A3C_定义AC网络结构_定义worker拉取参数和更新全局网络参数的逻辑_ev.mp435.52M

├──50:代码实战_A3C_结合流程图分三点总结前面讲的代码_ev.mp435.80M

├──51:代码实战_A3C_讲解线程中worker和环境交互_ev.mp445.16M

└──52:代码实战_A3C_讲解线程中worker和GlobalNet交互_代码运行效果展示_ev.mp441.57M

└──章节5:DDPG、PPO、DPPO算法

├──代码

├──53:DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic_ev.mp443.40M

├──54:代码实战_DDPG_构建Actor和Critic四个网络_定义Critic求loss和求梯度的逻辑_ev.mp445.45M

├──55:代码实战_DDPG_Critic网络构建_Actor网络链式求导_ev.mp450.11M

├──56:代码实战_DDPG_与环境之间的互动_AC训练调整参数_效果展示_ev.mp438.76M

├──57:TD3_使用DoubleNetwork优化DDPG_ev.mp457.07M

├──58:PPO_强调AC如何输出连续型动作_区分On-Policy与Off-Policy_ev.mp434.69M

├──59:PPO_通过重要姓采样使得PPO可以做Off-Policy学习_ev.mp432.08M

├──60:PPO_重要姓采样的问题_期望矫正但是方差还是不同带来的问题_ev.mp434.49M

├──61:PPO_PPO1、TRPO、PPO2三种不同的方式解决两个分布不同的问题_ev.mp432.50M

├──62:代码实战_PPO与环境整体交互_Actor与Critic网络构建_ev.mp428.52M

├──63:代码实战_定义PPO1和PPO2不同版本Actor的Loss计算逻辑_ev.mp436.15M

├──64:代码实战_剖析PPO代码中如何体现Off-Policy的学习方式_效果展示_ev.mp434.44M

├──65:DPPO分布式PPO_ev.mp436.43M

├──66:代码实战_DPPO_创建一个PPO和多个Worker_创建多线程_ev.mp433.08M

└──67:代码实战_DPPO_GlobalPPO和Workers交替执行_ev.mp448.49M

├──32-【加课】 图神经网络【2021新增 未更新。。。持续更新】

└──未更新。。。持续更新

├──【加课】Linux环境编程基础

└──章节1:Linux

├──10:Linux_常用命令_clear、touch、cat命令_ev.mp46.89M

├──11:Linux_常用命令more、head、tail命令_ev.mp411.70M

├──14:Linux_常用命令_rm、mv命令_ev.mp419.93M

├──15:Linux_常用命令_vi、vim_ev.mp422.76M

├──16:Linux_常用命令_reboot、halt_ev.mp44.00M

├──18:Linux_常用配置_启动网络_ev.mp411.23M

├──1:Linux_课程介绍_ev.mp42.92M

├──20:Linux_常用配置_设置网络类型_ev.mp418.98M

├──25:Linux_文件的压缩与解压缩处理_ev.mp428.49M

├──26:Linux_安装MySQL_ev.mp450.60M

├──3:Linux_VMWare安装及使用_ev.mp413.50M

├──5:Linux_目录介绍_ev.mp413.21M

└──8:Linux_常用命令_cd命令_ev.mp46.00M

└──【加课】算法数据结构

└──章节1:算法数据结构

├──10:哈希表的基本结构_ev.mp426.13M

├──11:哈希表冲突问题_ev.mp436.27M

├──12:哈希表冲突问题2_ev.mp429.22M

├──13:哈希扩容_ev.mp441.81M

├──14:递归与栈_ev.mp423.30M

├──16:二分查找_ev.mp425.38M

├──17:冒泡排序_ev.mp426.31M

├──18:选择排序_ev.mp422.56M

├──19:插入排序_ev.mp415.88M

├──1:数据结构与算法简介_ev.mp417.10M

├──20:归并排序_ev.mp440.45M

├──21:快速排序_ev.mp419.04M

├──22:树结构_ev.mp442.63M

├──23:树结构的遍历_ev.mp427.49M

├──24:最大堆的增加操作_ev.mp435.82M

├──26:二叉树的查找_ev.mp441.35M

├──27:二叉树获取最小值_ev.mp411.17M

├──28:二叉树的添加_ev.mp430.58M

├──29:二叉树的删除_ev.mp454.96M

├──2:大O表示法_ev.mp411.34M

├──3:线姓结构_ev.mp424.14M

├──4:单线链表1_ev.mp427.60M

├──5:单链表2_ev.mp458.34M

├──6:双链表_ev.mp446.56M

├──7:队列(链式)_ev.mp433.40M

├──8:队列(线式)_ev.mp417.80M

└──9:栈与双端队列_ev.mp413.03M

免责声明: 1、本站信息来自网络,版权争议与本站无关 2、本站所有主题由该帖子作者发表,该帖子作者与本站享有帖子相关版权 3、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和本站的同意 4、本帖部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责 5、用户所发布的一切软件的解密分析文章仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。 6、您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。 7、请支持正版软件、得到更好的正版服务。 8、如有侵权请立即告知本站,本站将及时予与删除 9、本站所发布的一切破解补丁、注册机和注册信息及软件的解密分析文章和视频仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
600学习网 » 百战程序员AI算法工程师就业班2022