SWG: an architecture for sparse weight gradient computation
On-device training for deep neural networks (DNN) has become a trend due to various user preferences and scenarios. The DNN training process consists of three phases, feedforward (FF), backpropagation (BP), and weight gradient (WG) update. WG takes about one-third of the computation in the whole tra...
Uloženo v:
| Vydáno v: | Science China. Information sciences Ročník 67; číslo 2; s. 122405 |
|---|---|
| Hlavní autoři: | , , , , |
| Médium: | Journal Article |
| Jazyk: | angličtina |
| Vydáno: |
Beijing
Science China Press
01.02.2024
Springer Nature B.V |
| Témata: | |
| ISSN: | 1674-733X, 1869-1919 |
| On-line přístup: | Získat plný text |
| Tagy: |
Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
|
Buďte první, kdo okomentuje tento záznam!