新网工在YESLAB   

IT技术专业学习平台
IT人才专业服务提供商

 

VUE考试注册预约电话:010-82608710

全国热线:400-004-8626

人工智能|04 被VGGNet一巴掌拍懵

首页    技术博文    计算机视觉    人工智能|04 被VGGNet一巴掌拍懵

VGGNet

继AlexNet与ZFNet之后,VGGNet拿下了2014年ILSVRC(ImageNet Large Scale Visual Recognition Competition)的冠军。VGGNet是牛津大学视觉组构造的深度学习模型,整个架构的特点就是成熟二字,首先系统减少了对参数细节的思考,大量重复参数出现,其次这个网络给予用户多种架构选择,就像买车一样有高中低配,让人使用起来非常舒服。当然这些都不是本文的重点,更让人兴奋的是,这篇论文会对前面的文章重重打脸,让我们拭目以待。

QQ

打脸LRN

如果你熟悉我们之前的计算机视觉系列文章,应该记得我们讲过一个很玄乎的LRN层,AlexNet架构费尽心思,根据人类大脑抑制保护机制,采取了一种LRN激活抑制方法。此法相当复杂,且需要在每次激活时实施,然而这篇论文中,这种方法被VGGNet直接否定了,并且作者做了专门的对比试验来证明这个事。下图就是VGGNet 的可选结构,我们可以看到A-LRN网络就是作者为了专门打脸做的结构。

QQ1

网络配置打脸

AlexNet使用较大的卷积核配置,例如11x11,而ZFNet将第一层改小为7x7,步幅也从4改为2,现在VGGNet站出来说“参数改来改去有什么意思”(个人笑谈),于是把所有卷积层改为3x3,部分特殊层为了实验目的改为1x1,关于1x1网络我们后文再聊,步幅也都统一为1,至此结构统一步伐整齐。看完卷积再来看看池化层,AlexNet精心研究了过载池化技术,就是使用3x3的池化大小,却使用2作为步长,这样每次池化运算都会有重复部分,而在VGGNet看来这样做完全没什么作用,于是VGGNet里面所有池化都采用2x2大小与2作为步长,这样可以节省很多参数,VGGNet的参数量见下图。

QQ图片20181106173143

成绩打脸

这篇文章属于VGGNet V6版本,写于2015年,也就是Google Inception Net已出的时间,故本文的成绩在超过AlexNet和ZFNet的同时,也与最新的Google Inception Net做了比较,仿佛再说这样的话“虽然你是2015年的老大,但我2014年的冠军模型只输你0.1”。下图就是ILSVRC比赛的成绩,Krizhevsky是AlexNet,Zeiler & Fergus是ZFNet。VGGNet就讲解到这里,下回Google Inception Net 再分晓。

QQ图片20181106173405

 

2018年10月31日 18:30
浏览量:0
收藏