1,
激活函数在神经网络中的作用是什么?
激活函数模拟生物学中的神经元是否应该被激发。它接受输入和偏差的加权和作为任何激活函数的输入。从数学角度讲引入激活函数是为了增加神经网络模型的非线性。Sigmoid、ReLU、Tanh 都是常见的激活函数。
2,反向传播的过程?
3,CNN中常见的层有哪些? 分别是什么作用?
4,简述一下sigmoid函数
5,神经网络中哪些方法可以避免过拟合?
6,绍Batch Normalization的意义
7,你通常使用哪些指标来评估你的模型?这些指标含义?
8,当图像尺寸变为2倍,CNN的参数数量变为几倍?为什么?
9,Yolov4的5个基本组件
1.CBM: Yolov4网络结构中最小的组件,由Conv+Bn+Mish激活函数三者组成
2.CBL:由Conv+Bn+Leaky_relu激活函数三者组成。
3.Res unit: 借鉴Resnet网络中的残差结构,让网络可以构建的更深。
4.CSPX:借鉴CSPNet网络结构,由三个卷积层和 X个Res unit模块Concate组成。
5.SPP: 采用1x1,5x5,9x9,13x13的最大池化的方式,进行多尺度融合。
Mish激活函数,网络后面任然采用Leaky_relu激活函数