SWG: an architecture for sparse weight gradient computation
On-device training for deep neural networks (DNN) has become a trend due to various user preferences and scenarios. The DNN training process consists of three phases, feedforward (FF), backpropagation (BP), and weight gradient (WG) update. WG takes about one-third of the computation in the whole tra...
Gespeichert in:
| Veröffentlicht in: | Science China. Information sciences Jg. 67; H. 2; S. 122405 |
|---|---|
| Hauptverfasser: | , , , , |
| Format: | Journal Article |
| Sprache: | Englisch |
| Veröffentlicht: |
Beijing
Science China Press
01.02.2024
Springer Nature B.V |
| Schlagworte: | |
| ISSN: | 1674-733X, 1869-1919 |
| Online-Zugang: | Volltext |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Schreiben Sie den ersten Kommentar!