【AI-1000问】为什么CNN中的卷积核半径都是奇数?

11

往期视频

为什么CNN中的卷积核一般都是奇数*奇数?

熟悉CNN应该都知道常见的卷积核都是3*3或者5*5等,也就是奇数*奇数,似乎都没看过偶数的,这是为什么呢?

作者/编辑 汤兴旺

在CNN中,卷积核的大小是3*3或者5*5是最常见的。也就是说我们见到的卷积核几乎都是奇数*奇数的。在LeNet5中两个卷积层的卷积核都是5*5。

而在AlexNet中共有5个卷积层,conv1的卷积核大小是11*11;conv2的卷积核大小是5*5;conv3的卷积核大小是3*3;conv4的卷积核大小是3*3;conv5的卷积核大小是3*3。

看到了吗?都是奇数!这是为什么呢?

解答1:更容易padding!

在卷积时,我们有时候需要卷积前后的尺寸不变。这时候我们就需要用到padding。假设图像的大小,也就是被卷积对象的大小为n*n,卷积核大小为k*k,padding的幅度设为(k-1)/2时,卷积后的输出就为(n-k+2*((k-1)/2))/1+1=n,即卷积输出为n*n,保证了卷积前后尺寸不变。但是如果k是偶数的话,(k-1)/2就不是整数了。

解答2:更容易找到卷积锚点!

在CNN中,进行卷积操作时一般会以卷积核模块的一个位置为基准进行滑动,这个基准通常就是卷积核模块的中心。若卷积核为奇数,卷积锚点很好找,自然就是卷积模块中心,但如果卷积核是偶数,这时候就没有办法确定了,让谁是锚点似乎都不怎么好。

思考

你现在知道为什么CNN中的卷积核一般都是奇数*奇数了吗?对于卷积核还有许多细节值得我们思考!如果您对卷积核有什么问题或者见解,欢迎留言!

转载文章请后台联系

侵权必究

(0)

相关推荐

  • 神经网络之CNN与RNN的关系

    机器学习算法与Python实战 长期跟踪关注统计学.数据挖掘.机器学习算法.深度学习.人工智能技术与行业发展动态,分享Python.机器学习等技术文章.回复机器学习有惊喜资料. 215篇原创内容 公众 ...

  • 【连载16】GoogLeNet Inception V1

    公众号后台回复"python",立刻领取100本机器学习必备Python电子书 GoogLeNet是由google的Christian Szegedy等人在2014年的论文< ...

  • 双色球技巧有哪些 从这几点看蓝球

    首先,大小方面,蓝球可分为8个大数和8个小码,小数是从01-08,大码则是从09-16,每期可先根据大小进行判断,然后结合前几期的冷热走势,缩小选号范围. 第二点,奇偶方面,奇偶同样各占8枚,其中奇数 ...

  • 双色球投注技巧:连号分析

    双色球连号按大小划分,可分为大连号和小连号,比如17和18以上为大连号,16和17以下为小连号.按大小划分的目的,是为便于观察大小连号出现的概率,及其相应转换的态势和出号的特点. 按长度划分,可分为二 ...

  • CNN网络架构演进:从LeNet到DenseNet

    卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀.CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF ...

  • CSOC2017第27期第25题大小奇偶数独解法

    CSOC2017第27期 第25题大小奇偶数独解法 原题如下 规则: 在空格内填入数字 1-8,使得每行.每列及每宫内数字均不重复. 盘面外文字表示其对应临近两格内数字的属性, [奇]对应数字 1.3 ...

  • 0 是偶数还是奇数?

    视频来源:遇见数学公号

  • 卷积神经网络-Padding

    为了构建深度神经网络,你需要学会使用的一个基本的卷积操作就是padding,让我们来看看它是如何工作的. 我们在之前视频中看到,如果你用一个3×3的过滤器卷积一个6×6的图像,你最后会得到一个4×4的 ...

  • 卷积神经网络中感受野的详细介绍

    目录: 感受野的概念 感受野的例子 感受野的计算 计算VGG16网络每层的感受野 Reference 1. 感受野的概念 在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络 ...

  • MRl的物质基础

    一.原子的结构 任何物质都是由分子组成的,分子是由原子组成的.原子是由原子核和位于其周围轨道中的电子构成的,电子带有负电荷.原子核由中子和质子构成,中子不带电荷,质子带正电荷.人体内最多的分子是水,水 ...