思维导图备注

深度学习与图像识别:原理与实践
首页 收藏书籍 阅读记录
  • 书签 我的书签
  • 添加书签 添加书签 移除书签 移除书签

前言

浏览 1 扫码
  • 小字体
  • 中字体
  • 大字体
2022-01-25 02:21:38
请 登录 再阅读
上一篇:
下一篇:
  • 书签
  • 添加书签 移除书签
  • 前言
  • 第1章 机器视觉在行业中的应用
    • 1.1 机器视觉的发展背景
      • 1.1.2 机器视觉
    • 1.2 机器视觉的主要应用场景
      • 1.2.1 人脸识别
      • 1.2.2 视频监控分析
      • 1.2.3 工业瑕疵检测
      • 1.2.4 图片识别分析
      • 1.2.5 自动驾驶/驾驶辅助
      • 1.2.6 三维图像视觉
      • 1.2.7 医疗影像诊断
      • 1.2.8 文字识别
      • 1.2.9 图像/视频的生成及设计
    • 1.3 本章小结
  • 第2章 图像识别前置技术
    • 2.1 深度学习框架
      • 2.1.1 Theano
      • 2.1.2 Tensorflow
      • 2.1.3 MXNet
      • 2.1.4 Keras
      • 2.1.5 PyTorch
      • 2.1.6 Caffe
    • 2.2 搭建图像识别开发环境
      • 2.2.1 Anaconda
      • 2.2.2 conda
      • 2.2.3 Pytorch的下载与安装
    • 2.3 Numpy使用详解
      • 2.3.1 创建数组
      • 2.3.2 创建Numpy数组
      • 2.3.3 获取Numpy属性
      • 2.3.4 Numpy数组索引
      • 2.3.5 切片
      • 2.3.6 Numpy中的矩阵运算
      • 2.3.7 数据类型转换
      • 2.3.8 Numpy的统计计算方法
      • 2.3.9 Numpy中的arg运算
      • 2.3.10 FancyIndexing
      • 2.3.11 Numpy数组比较
    • 2.4 本章小结
  • 第3章 图像分类之KNN算法
    • 3.1 KNN的理论基础与实现
      • 3.1.2 KNN的算法实现
    • 3.2 图像分类识别预备知识
      • 3.2.2 图像预处理
    • 3.3 KNN实战
      • 3.3.2 KNN实现Cifar10数据分类
    • 3.4 模型参数调优
    • 3.5 本章小结
  • 第4章 机器学习基础
    • 4.1 线性回归模型
      • 4.1.1 一元线性回归
      • 4.1.2 多元线性回归
    • 4.2 逻辑回归模型
      • 4.2.1 Sigmoid函数
      • 4.2.2 梯度下降法
      • 4.2.3 学习率η的分析
      • 4.2.4 逻辑回归的损失函数
      • 4.2.5 Python实现逻辑回归
    • 4.3 本章小结
  • 第5章 神经网络基础
    • 5.1 神经网络
      • 5.1.1 神经元
      • 5.1.2 激活函数
      • 5.1.3 前向传播
    • 5.2 输出层
      • 5.2.1 Softmax
      • 5.2.2 one-hotencoding
      • 5.2.3 输出层的神经元个数
      • 5.2.4 MNIST数据集的前向传播
    • 5.3 批处理
    • 5.4 广播原则
    • 5.5 损失函数
      • 5.5.1 均方误差
      • 5.5.2 交叉熵误差
      • 5.5.3 Mini-batch
    • 5.6 最优化
      • 5.6.1 随机初始化
      • 5.6.2 跟随梯度(数值微分)
    • 5.7 基于数值微分的反向传播
    • 5.8 基于测试集的评价
    • 5.9 本章小结
  • 第6章 误差反向传播
    • 6.1 激活函数层的实现
      • 6.1.1 ReLU反向传播实现
      • 6.1.2 Sigmoid反向传播实现
    • 6.2 Affine层的实现
    • 6.3 Softmaxwithloss层的实现
    • 6.4 基于数值微分和误差反向传播的比较
    • 6.5 通过反向传播实现MNIST识别
    • 6.6 正则化惩罚
    • 6.7 本章小结
  • 第7章 PyTorch实现神经网络图像分类
    • 7.1 PyTorch的使用
      • 7.1.1 Tensor
      • 7.1.2 Variable
      • 7.1.3 激活函数
      • 7.1.4 损失函数
    • 7.2 PyTorch实战
      • 7.2.1 PyTorch实战之MNIST分类
      • 7.2.2 PyTorch实战之Cifar10分类
    • 7.3 本章小结
  • 第8章 卷积神经网络
    • 8.1 卷积神经网络基础
      • 8.1.1 全连接层
      • 8.1.2 卷积层
      • 8.1.3 池化层
      • 8.1.4 批规范化层
    • 8.2 常见卷积神经网络结构
      • 8.2.1 AlexNet
      • 8.2.2 VGGNet
      • 8.2.3 GoogLeNet
      • 8.2.4 ResNet
      • 8.2.5 其他网络结构
    • 8.3 VGG16实现Cifar10分类
      • 8.3.1 训练
      • 8.3.2 预测及评估
    • 8.4 本章小结
    • 8.5 参考文献
  • 第9章 目标检测
    • 9.1 定位+分类
    • 9.2 目标检测
      • 9.2.1 R-CNN
      • 9.2.2 Fast R-CNN
      • 9.2.3 Faster R-CNN
      • 9.2.4 YOLO
      • 9.2.5 SSD
    • 9.3 SSD实现VOC目标检测
      • 9.3.1 PASCAL VOC数据集
      • 9.3.2 数据准备
      • 9.3.3 构建模型
      • 9.3.4 定义Loss
      • 9.3.5 SSD训练细节
      • 9.3.6 训练
      • 9.3.7 测试
    • 9.4 本章小结
    • 9.5 参考文献
  • 第10章 分割
    • 10.1 语义分割
      • 10.1.1 FCN
      • 10.1.2 UNet实现裂纹分割
      • 10.1.3 SegNet
      • 10.1.4 PSPNet
    • 10.2 实例分割
      • 10.2.1 层叠式
      • 10.2.2 扁平式
    • 10.3 本章小结
    • 10.4 参考文献
  • 第11章 产生式模型
    • 11.1 自编码器
    • 11.2 对抗生成网络
    • 11.3 DCGAN及实战
      • 11.3.1 数据集
      • 11.3.2 网络设置
      • 11.3.3 构建产生网络
      • 11.3.4 构建判别网络
      • 11.3.5 定义损失函数
      • 11.3.6 训练过程
      • 11.3.7 测试
    • 11.4 其他GAN
    • 11.5 本章小结
    • 11.6 参考文献
  • 第12章 神经网络可视化
    • 12.1 卷积核
    • 12.2 特征层
      • 12.2.2 通过重构观测
      • 12.2.3 末端特征激活情况
      • 12.2.4 特征层的作用
    • 12.3 图片风格化
      • 12.3.1 理论介绍
      • 12.3.2 代码实现
    • 12.4 本章小结
    • 12.5 参考文献
  • 第13章 图像识别算法的部署模式
    • 13.1 图像算法部署模式介绍
    • 13.2 实际应用场景和部署模式的匹配
    • 13.3 案例介绍
    • 13.4 本章小结
暂无相关搜索结果!
    展开/收起文章目录

    二维码

    手机扫一扫,轻松掌上学

    《深度学习与图像识别:原理与实践》电子书下载

    请下载您需要的格式的电子书,随时随地,享受学习的乐趣!
    EPUB 电子书

    书签列表

      阅读记录

      阅读进度: 0.00% ( 0/0 ) 重置阅读进度