深度学习-一篇入门

【模型】一篇入门之-局部响应归一化LRN

作者 : 老饼 发表日期 : 2023-12-14 03:16:09 更新日期 : 2024-11-23 12:19:08
本站原创文章,转载请说明来自《老饼讲解-深度学习》www.bbbdata.com



局部响应归一化LRN(Local Response Normalization)是AlexNet原文提供的一种归一化方法

本文讲解LRN归一化的计算公式,以及通过具体例子讲解LRN的计算方法,以助于理解LRN是如何计算的

通过本文可以快速了解LRN是什么,LRN的思路是什么,LRN有什么用,以及LRN具体是怎么计算的




    01. 局部响应归一化LRN   




本节介绍什么是局部响应归一化及具体的计算公式




     局部响应归一化LRN是什么     


LRN全称为Local Response Normalization,即局部响应归一化
LRN是一种深度学习中的一种归一化方法,由AlexNet卷积神经网络的原文提出并使用
但由于后续的多张论文,使用LRN后都没什么效果,且计算复杂,现一般都已被BN归一化方法替代
 可以说,LRN完全没有学习的必要,但为了某些非想知道LRN是什么的同学,所以笔者还是写了本文
LRN局部响应归一化的计算公式
 
LRN在AlexNet原文的公式如下:
 
其中
  :第i个通道(x,y)位置的值                           
   :第i个通道(x,y)位置归一化后的值              
   :局部归一化的半径,原文n设为      
   :通道数,就是通道的最大索引     
 :待设参数                                      
                       原文设为





      局部响应归一化LRN-具体例子解说    


LRN的意图是指将卷积结果按通道进行局部归一化
举例如下,设有6个通道(序号为0至5),则第4通道位置(x,y)的值归一化方法如下
 
局部响应归一化LRN  
将第4通道(x,y)位置的值与邻近通道同位置的值进行一起归一化
即归一化后的值为:
 

解说:范围"2->5"是如何确定的?它由局部范围参数n=5来确定
由于
在第4通道,以4为中心抓取n=5个通道(即2、3、4、5、6),但6已经超出通道范围,故得到"2->5"






好了,以上就是局部响应归一化LRN的讲解了~








 End 




联系老饼