前几节介绍的LeNet、AlexNet和VGG在设计上的共同之处是:先以由卷积层构成的模块充分抽取空间特征,再以由全连接层构成的模块来输出分
VGG:更大更深、VGG块 VGG块的组成规律是:连续重复使用数个相同的 填充为1、窗口形状为3×3的卷积层后(33卷积比55卷积好) 接上一个步
前言 接下来一次介绍现代卷积神经网络的架构: AlexNet。它是第一个在大规模视觉竞赛中击败传统计算机视觉模型的大型神经网络; 使用重复块的网络
LeNet 1989年提出的 是早期成功的神经网络 先使用卷积层来学习图片空间信息 然后使用全连接层转换到类别空间 LeNet交替使用卷积层和最大池化层后接全
Batch是大小 epoch是数量 Batch Batch大小是一个超参数,用于定义在更新内部模型参数之前要处理的样本数。将批处理视为循环迭代一个或多个样
除了前一节介绍的权重衰减以外,深度学习模型常常使用丢弃法(dropout)来应对过拟合问题 标准处理流程: $ℎ=σ(𝑊1𝑥+𝑏1)$ 第一个隐藏