尚硅谷AI大模型之深度学习

来源官方

尚硅谷AI大模型之深度学习

尚硅谷AI大模型之深度学习视频教程,是机器学习的后续课程,也是NLP的前置课程。

内容分为神经网络基本原理、深度学习技巧、深度学习框架PyTorch和特殊结构网络四大部分。教程深入剖析了深度学习的底层原理,介绍了业界主流框架PyTorch的使用,通过大量应用案例和代码练习进行讲解,带你从0开始手动搭建深度神经网络。

教程前置知识:

一、数学基础,讲解中涉及一些数学原理和公式推导;二、编程基础,需要熟练掌握Python语言;三、机器学习知识,深度学习课程是机器学习课程的延伸和深入,需要首先了解机器学习的基本概念和原理。

教程目录:

 001_教程简介
 002_深度学习_概述
 003_神经网络_基本概念和结构
 004_神经网络_感知机和激活函数
 005_激活函数_阶跃、Sigmoid和Tanh
 006_激活函数_ReLU
 007_激活函数_Softmax
 008_其它激活函数
 009_简单神经网络_信号传递
 010_简单神经网络_代码实现
 011_神经网络案例_手写数字识别_整体思路
 012_神经网络案例_手写数字识别_具体实现
 013_神经网络案例_手写数字识别_小批量计算
 014_损失函数_MSE
 015_损失函数_交叉熵误差
 016_损失函数_分类和回归任务常见损失函数
 017_数值微分_求导
 018_数值微分_计算切线
 019_数值微分_偏导数和梯度
 020_数值微分_计算梯度
 021_定义神经网络类
 022_神经网络的梯度计算
 023_梯度下降法_原理和代码实现
 024_梯度下降法案例_求最小值
 025_梯度下降法_超参数的影响
 026_梯度下降法_训练相关概念
 027_梯度下降法_SGD基本原理
 028_梯度下降法_SGD案例_神经网络类实现
 029_梯度下降法_SGD案例_加载数据和定义超参数
 030_梯度下降法_SGD案例_模型训练和测试
 031_反向传播_计算图和反向求导
 032_反向传播_链式法则
 033_反向传播_加法和乘法节点
 034_反向传播_激活函数层_ReLU
 035_反向传播_激活函数层_Sigmoid
 036_反向传播_仿射层Affine
 037_反向传播_输出层_基本介绍
 038_反向传播_输出层_原理推导
 039_反向传播_输出层_代码实现
 040_综合应用案例_手写数字识别_定义网络类
 041_综合应用案例_手写数字识别_模型训练和测试
 042_深度神经网络
 043_梯度消失和梯度爆炸
 044_学习优化方法_SGD
 045_学习优化方法_动量法
 046_学习优化方法_学习率衰减
 047_学习优化方法_AdaGrad
 048_学习优化方法_RMSProp
 049_学习优化方法_Adam
 050_学习优化方法_综合对比
 051_学习优化方法_超参数的调节
 052_参数初始化_常数初始化及其问题
 053_参数初始化_Xavier和He初始化
 054_正则化_Batch Norm
 055_正则化_权值衰减和Dropout
 056_PyTorch_基本介绍
 057_PyTorch_安装流程及CUDA介绍
 058_PyTorch_安装完成验证
 059_PyTorch_张量创建_按内容
 060_PyTorch_张量创建_按形状
 061_PyTorch_张量创建_按类型
 062_PyTorch_张量创建_指定区间
 063_PyTorch_张量创建_按数值填充
 064_PyTorch_张量创建_随机生成
 065_PyTorch_随机排列和随机数种子
 066_PyTorch_张量转换_元素数据类型转换
 067_PyTorch_张量转换_张量和ndarray的转换
 068_PyTorch_张量转换_张量和标量的转换
 069_PyTorch_张量数值计算_基本运算
 070_PyTorch_张量数值计算_哈达玛积和矩阵乘法
 071_PyTorch_节省内存
 072_PyTorch_张量统计运算函数
 073_PyTorch_张量索引操作_简单索引和范围索引
 074_PyTorch_张量索引操作_列表索引
 075_PyTorch_张量索引操作_布尔索引
 076_PyTorch_张量形状操作_交换维度
 077_PyTorch_张量形状操作_调整形状
 078_PyTorch_张量形状操作_增减维度
 079_PyTorch_张量拼接和堆叠
 080_PyTorch_自动微分模块_计算梯度基本流程
 081_PyTorch_自动微分模块_梯度计算原理
 082_PyTorch_自动微分模块_分离张量
 083_PyTorch_自动微分模块_detach对梯度计算的影响
 084_PyTorch_自动微分模块_detach与data的区别
 085_PyTorch_线性回归案例_模块和流程介绍
 086_PyTorch_线性回归案例_代码实现
 087_PyTorch深度学习_激活函数_Sigmoid
 088_PyTorch深度学习_激活函数_Tanh
 089_PyTorch深度学习_激活函数_ReLU
 090_PyTorch深度学习_激活函数_Softmax
 091_PyTorch深度学习_全连接层和参数初始化
 092_PyTorch深度学习_Dropout层
 093_PyTorch深度学习_神经网络搭建
 094_PyTorch深度学习_查看模型参数
 095_PyTorch深度学习_查看模型结构和参数数量
 096_PyTorch深度学习_device设置
 097_PyTorch深度学习_使用Sequential创建神经网络
 098_PyTorch深度学习_损失函数_BCE
 099_PyTorch深度学习_损失函数_CrossEntropyLoss
 100_PyTorch深度学习_损失函数_回归任务损失函数
 101_PyTorch深度学习_损失函数_综合测试
 102_PyTorch深度学习_动量法
 103_PyTorch深度学习_学习率衰减_等间隔
 104_PyTorch深度学习_学习率衰减_指定间隔和指数衰减
 105_PyTorch深度学习_AdaGrad和RMSProp
 106_PyTorch深度学习_Adam
 107_房价预测案例_数据分析和导入模块
 108_房价预测案例_特征工程
 109_房价预测案例_模型创建
 110_房价预测案例_定义损失函数
 111_房价预测案例_训练模型和测试
 112_CNN_基本结构
 113_CNN_卷积层_基本介绍
 114_CNN_卷积层_数学上的卷积
 115_CNN_卷积层_CNN的卷积运算
 116_CNN_卷积层_填充
 117_CNN_卷积层_步幅和输出形状计算
 118_CNN_卷积层_3维数据卷积运算
 119_CNN_卷积层_API调用和测试
 120_CNN_池化层_基本概念和特点
 121_CNN_池化层_API调用和测试
 122_CNN_深度卷积神经网络
 123_服装分类案例_加载数据集
 124_服装分类案例_创建模型
 125_服装分类案例_模型训练
 126_服装分类案例_模型测试
 127_NLP概述
 128_词向量和词嵌入
 129_嵌入层API使用
 130_词嵌入应用和NLP模型
 131_RNN_基本结构和原理
 132_RNN_API调用
 133_RNN_输入输出形状
 134_古诗生成案例_数据预处理
 135_古诗生成案例_创建数据集
 136_古诗生成案例_创建模型
 137_古诗生成案例_模型训练
 138_古诗生成案例_生成新诗

资源下载此资源仅限VIP下载,请先
支付后点击下载按钮即可查看网盘链接,如果链接失效,可联系本站客服
下载价格:VIP专享
此资源仅对VIP开放下载
下载说明:支付后点击下载按钮即可查看网盘链接,如果链接失效,可联系本站客服
0
分享到:
低调求发展,潜心习技术
没有账号? 忘记密码?