Why RELU Units Sometimes Die: Analysis of Single-Unit Error Backpropagation in Neural Networks

Recently, neural networks in machine learning use rectified linear units (ReLUs) in early processing layers for better performance. Training these structures sometimes results in "dying ReLU units" with near-zero outputs. We first explore this condition via simulation using the CIFAR-10 da...

Celý popis

Uložené v:
Podrobná bibliografia
Vydané v:Conference record - Asilomar Conference on Signals, Systems, & Computers s. 864 - 868
Hlavní autori: Douglas, Scott C., Yu, Jiutian
Médium: Konferenčný príspevok..
Jazyk:English
Vydavateľské údaje: IEEE 01.10.2018
Predmet:
ISSN:2576-2303
On-line prístup:Získať plný text
Tagy: Pridať tag
Žiadne tagy, Buďte prvý, kto otaguje tento záznam!
Buďte prvý, kto okomentuje tento záznam!
Najprv sa musíte prihlásiť.