SWG: an architecture for sparse weight gradient computation

On-device training for deep neural networks (DNN) has become a trend due to various user preferences and scenarios. The DNN training process consists of three phases, feedforward (FF), backpropagation (BP), and weight gradient (WG) update. WG takes about one-third of the computation in the whole tra...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:Science China. Information sciences Ročník 67; číslo 2; s. 122405
Hlavní autoři: Wu, Weiwei, Tu, Fengbin, Li, Xiangyu, Wei, Shaojun, Yin, Shouyi
Médium: Journal Article
Jazyk:angličtina
Vydáno: Beijing Science China Press 01.02.2024
Springer Nature B.V
Témata:
ISSN:1674-733X, 1869-1919
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.