Multi-stage stochastic gradient method with momentum acceleration

•Stage-wise optimization and momentum have been widely employed to accelerate SGD.•Negative momentum provides acceleration and stabilization on stochastic first-order methods.•Negative momentum extends Nesterovs momentum to the stage-wise optimization.•Gradient correction avoids the oscillations and...

Celý popis

Uložené v:
Podrobná bibliografia
Vydané v:Signal processing Ročník 188; s. 108201
Hlavní autori: Luo, Zhijian, Chen, Siyu, Qian, Yuntao, Hou, Yueen
Médium: Journal Article
Jazyk:English
Vydavateľské údaje: Elsevier B.V 01.11.2021
Predmet:
ISSN:0165-1684, 1872-7557
On-line prístup:Získať plný text
Tagy: Pridať tag
Žiadne tagy, Buďte prvý, kto otaguje tento záznam!
Buďte prvý, kto okomentuje tento záznam!
Najprv sa musíte prihlásiť.