深度学习-一篇入门

【介绍】一篇入门之-Leaky-ReLU激活函数及其导数

作者 : 老饼 发表日期 : 2022-11-05 14:16:50 更新日期 : 2024-12-23 09:29:50
本站原创文章,转载请说明来自《老饼讲解-深度学习》www.bbbdata.com



Leaky-ReLu激活函数是ReLu激活函数的一种改进,它在大于0时为x,小于0时为αx

本文讲解Leaky-ReLu激活函数的表达式、图像,以及Leaky-ReLu函数的导数、导数图像、特性等

通过本文,可以快速了解Leaky-ReLu函数是什么,包括Leaky-ReLu的特点、图像、导数、作为激活函数的特点等等





    01. Leaky-ReLu激活函数    





本节介绍Leaky-ReLu函数的表达式、图像,以及Leaky-ReLu的导数





      Leaky-ReLu激活函数      


Leaky-ReLu激活函数是深度学习中一个常见的激活函数,它是ReLu函数的修改
Leaky-ReLu激活函数的公式如下:
         
 或者
   
          
 Leaky-ReLu函数的图象如下:
 
Leaky-ReLu的函数图象
Leaky-ReLu是对ReLu激活函数的修改,它只是将ReLu函数在<0时的取值改为了






       Leaky-ReLu激活函数的导数       


Leaky-ReLu激活函数的导数是非连续的分段函数
Leaky-ReLu的导数如下:

 
  Leaky-ReLu的导数图象如下:
 
Leaky-ReLu的导数图象
可以看到,Leaky-ReLu函数在<0时导数为,而ReLu函数在<0时导数为0
Leaky-ReLu就是企图让ReLu的导数不为0,希望能以此加速训练,
但Leaky-ReLu在实践中并没有十分明显的效果,因此ReLu目前还是最主流的激活函数
 但不管怎么样,Leaky-ReLu的修改对于ReLu来说有益无害,所以Leaky-ReLu也是一个常用的激活函数









好了,以上就是深度学习中的Leaky-ReLu激活函数的表达式、图像与导数了~









 End 





联系老饼