CNN卷积函数Conv2D()各参数怎么使用

2023-05-19

本篇内容主要讲解“CNN卷积函数Conv2D()各参数怎么使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“CNN卷积函数Conv2D()各参数怎么使用”吧!

首先我们放出tf2.0关于tf.keras.layers.Conv2D()函数的官方文档,然后逐一对每个参数的含义和用法进行解释:

tf.keras.layers.Conv2D(
    filters, kernel_size, strides=(1, 1), padding='valid', data_format=None,
    dilation_rate=(1, 1), activation=None, use_bias=True,
    kernel_initializer='glorot_uniform', bias_initializer='zeros',
    kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None,
    kernel_constraint=None, bias_constraint=None, **kwargs
)

从这个函数的定义能看出来,filters ,kernel_size过滤器个数和卷积核尺寸,这是两个位置参数,没有默认值,必须给。

后面的那个多参数,都是关键字参数(有等于号的),都是有默认值的,可以不写,下面来逐一分析每个参数的含义: 

1.函数的位置参数filters

这是第一个参数,位置是固定的,含义是过滤器个数,或者叫卷积核个数,这个与卷积后的输出通道数一样,比如下面filters为5的时候,卷积输出的通道数(最后一位)就是5

filters卷积核个数为8的时候,输出的通道数就是8

2.函数的第二个位置参数 kernel_size

卷积核尺寸,一般为3×3,或者5×5,此处用2个整数的元组或列表表示,比如(3,3),[5,5],如果height, width长宽一样,直接用一个整数表示就行,比如3或者5,卷积后的,卷积后的height,width的计算公式如下:滑动步长为strides,卷积核的尺寸为S,输入的尺寸为P,padding = ‘valid“

height =width = (P-S)/strides +1,

此处 输入形状为20×20,卷积核为3×3,滑动步长为1,所以输出为(20-3)/1 +1 =18

此处,输入为20×20,卷积核为5×5,滑动步长为2×2,所以输出的形状为,(20-5)/2 +1向下取整,等于8,

3.关键字参数strides=(1, 1),滑动步长

默认横向和纵向滑动均为1,这个与上面的 卷积核size配合使用,用来计算输出的形状,

height =width = (P-S)/strides +1,

4.关键字参数padding = “valid”

默认是边缘不填充

此处只有两个取值,另一个取值为 “same”,表示边缘用0填充,如果padding =“same”,则输出的形状为 height =width = P/strides ,向上取整,如下图,

5.关键字参数 data_format = ’ channels_first’

输入的数据格式

此处只有两个取值 ,“channels_first”,和“channels_last”,即输入的数据格式中,通道数是第一个还是最后一个,默认为“channels_last”,即默认输入数据的格式中,通道数为最后一个。

当data_format = "channels_first"的时候,输入和输出的shape格式为

(batch_size, channels, height, width)即(图片数量,通道数,长,宽)正如下图所示:

6.关键字参数dalition_rate = (1,1)

这个含义是卷积核的膨胀系数,

此处的作用是将卷积核进行形状膨胀,新的位置用0填充,新卷积核的尺寸和膨胀系数的计算公式如下:

原卷积核的尺寸为S ,膨胀系数为k,则膨胀后的卷积核尺寸为

size = k×(S-1)+1

7.关键字参数activation = “relu”

此处的含义是激活函数,

相当于经过卷积输出后,在经过一次激活函数,常见的激活函数有relu,softmax,selu,等

8.关键字参数use_bias =0 、1

偏置项

此处取值为布尔值,0或者1,0表示没有增加bias,1表示有。

9.后面的关键字参数一般不常用

  • kernel_initializer:卷积核初始化,

  • bias_initializer:偏差值初始化,

  • kernel_regularizer:卷积核正则化

  • bias_regularizer:偏差正则化

  • activity_regularizer:这个地方也是一个正则化

  • kernel_constraint:卷积核约束

  • bias_constraint:偏差约束。

这几个参数不常用,

10.最后还有几个可选 的关键字参数

input_shape

这个是指输入的形状,一般是4D的,(batch size, height, width, channels),也可以不定义,那就是默认输入的形状。

到此,相信大家对“CNN卷积函数Conv2D()各参数怎么使用”有了更深的了解,不妨来实际操作一番吧!这里是本站网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

《CNN卷积函数Conv2D()各参数怎么使用.doc》

下载本文的Word格式文档,以方便收藏与打印。