思维导图备注

深度学习入门之PyTorch - 廖星宇
首页 收藏书籍 阅读记录
  • 书签 我的书签
  • 添加书签 添加书签 移除书签 移除书签

封面

浏览 1 扫码
  • 小字体
  • 中字体
  • 大字体
2024-04-30 09:46:04
请 登录 再阅读
上一篇:
下一篇:
  • 书签
  • 添加书签 移除书签
  • 封面
  • 版权信息
  • 前言
  • 第1章 深度学习介绍
    • 1.1 人工智能
    • 1.2 数据挖掘、机器学习与深度学习
      • 1.2.1 数据挖掘
      • 1.2.2 机器学习
      • 1.2.3 深度学习
    • 1.3 学习资源与建议
  • 第2章 深度学习框架
    • 2.1 深度学习框架介绍
    • 2.2 PyTorch介绍
      • 2.2.2 为何要使用PyTorch
    • 2.3 配置PyTorch深度学习环境
      • 2.3.1 操作系统的选择
      • 2.3.2 Python开发环境的安装
      • 2.3.3 PyTorch的安装
  • 第3章 多层全连接神经网络
    • 3.1 热身:PyTorch基础
      • 3.1.1 Tensor(张量)
      • 3.1.2 Variable(变量)
      • 3.1.3 Dataset(数据集)
      • 3.1.4 nn.Module(模组)
      • 3.1.5 torch.optim(优化)
      • 3.1.6 模型的保存和加载
    • 3.2 线性模型
      • 3.2.1 问题介绍
      • 3.2.2 一维线性回归
      • 3.2.3 多维线性回归
      • 3.2.4 一维线性回归的代码实现
      • 3.2.5 多项式回归
    • 3.3 分类问题
      • 3.3.1 问题介绍
      • 3.3.2 Logistic起源
      • 3.3.3 Logistic分布
      • 3.3.4 二分类的Logistic回归
      • 3.3.5 模型的参数估计
      • 3.3.6 Logistic回归的代码实现
    • 3.4 简单的多层全连接前向网络
      • 3.4.1 模拟神经元
      • 3.4.2 单层神经网络的分类器
      • 3.4.3 激活函数
      • 3.4.4 神经网络的结构
      • 3.4.5 模型的表示能力与容量
    • 3.5 深度学习的基石:反向传播算法
      • 3.5.1 链式法则
      • 3.5.2 反向传播算法
      • 3.5.3 Sigmoid函数举例
    • 3.6 各种优化算法的变式
      • 3.6.1 梯度下降法
      • 3.6.2 梯度下降法的变式
    • 3.7 处理数据和训练模型的技巧
      • 3.7.1 数据预处理
      • 3.7.2 权重初始化
      • 3.7.3 防止过拟合
    • 3.8 多层全连接神经网络实现MNIST手写数字分类
      • 3.8.1 简单的三层全连接神经网络
      • 3.8.2 添加激活函数
      • 3.8.3 添加批标准化
      • 3.8.4 训练网络
  • 第4章 卷积神经网络
    • 4.1 主要任务及起源
    • 4.2 卷积神经网络的原理和结构
      • 4.2.1 卷积层
      • 4.2.2 池化层
      • 4.2.3 全连接层
      • 4.2.4 卷积神经网络的基本形式
    • 4.3 PyTorch卷积模块
      • 4.3.1 卷积层
      • 4.3.2 池化层
      • 4.3.3 提取层结构
      • 4.3.4 如何提取参数及自定义初始化
    • 4.4 卷积神经网络案例分析
      • 4.4.1 LeNet
      • 4.4.2 AlexNet
      • 4.4.3 VGGNet
      • 4.4.4 GoogLeNet
      • 4.4.5 ResNet
    • 4.5 再实现MNIST手写数字分类
    • 4.6 图像增强的方法
    • 4.7 实现cifar10分类
  • 第5章 循环神经网络
    • 5.1 循环神经网络
      • 5.1.1 问题介绍
      • 5.1.2 循环神经网络的基本结构
      • 5.1.3 存在的问题
    • 5.2 循环神经网络的变式:LSTM与GRU
      • 5.2.1 LSTM
      • 5.2.2 GRU
      • 5.2.3 收敛性问题
    • 5.3 循环神经网络的PyTorch实现
      • 5.3.1 PyTorch的循环网络模块
      • 5.3.2 实例介绍
    • 5.4 自然语言处理的应用
      • 5.4.1 词嵌入
      • 5.4.2 词嵌入的PyTorch实现
      • 5.4.3 N Gram模型
      • 5.4.4 单词预测的PyTorch实现
      • 5.4.5 词性判断
      • 5.4.6 词性判断的PyTorch实现
    • 5.5 循环神经网络的更多应用
      • 5.5.1 Many to one
      • 5.5.2 Many to Many(shorter)
      • 5.5.3 Seq2seq
      • 5.5.4 CNN+RNN
  • 第6章 生成对抗网络
    • 6.1 生成模型
      • 6.1.1 自动编码器
      • 6.1.2 变分自动编码器
    • 6.2 生成对抗网络
      • 6.2.1 何为生成对抗网络
      • 6.2.2 生成对抗网络的数学原理
    • 6.3 Improving GAN
      • 6.3.1 Wasserstein GAN
      • 6.3.2 Improving WGAN
    • 6.4 应用介绍
      • 6.4.1 Conditional GAN
      • 6.4.2 Cycle GAN
  • 第7章 深度学习实战
    • 7.1 实例一——猫狗大战:运用预训练卷积神经网络进行特征提取与预测
      • 7.1.1 背景介绍
      • 7.1.2 原理分析
      • 7.1.3 代码实现
      • 7.1.4 总结
    • 7.2 实例二——Deep Dream:探索卷积神经网络眼中的世界
      • 7.2.1 原理介绍
      • 7.2.2 预备知识:backward
      • 7.2.3 代码实现
      • 7.2.4 总结
    • 7.3 实例三——Neural-Style:使用PyTorch进行风格迁移
      • 7.3.1 背景介绍
      • 7.3.2 原理分析
      • 7.3.3 代码实现
      • 7.3.4 总结
    • 7.4 实例四——Seq2seq:通过RNN实现简单的Neural Machine Translation
      • 7.4.1 背景介绍
      • 7.4.2 原理分析
      • 7.4.3 代码实现
      • 7.4.4 总结
暂无相关搜索结果!
    展开/收起文章目录

    二维码

    手机扫一扫,轻松掌上学

    《深度学习入门之PyTorch - 廖星宇》电子书下载

    请下载您需要的格式的电子书,随时随地,享受学习的乐趣!
    EPUB 电子书

    书签列表

      阅读记录

      阅读进度: 0.00% ( 0/0 ) 重置阅读进度