Scalpel: Customizing DNN pruning to the underlying hardware parallelism

As the size of Deep Neural Networks (DNNs) continues to grow to increase accuracy and solve more complex problems, their energy footprint also scales. Weight pruning reduces DNN model size and the computation by removing redundant weights. However, we implemented weight pruning for several popular n...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:2017 ACM/IEEE 44th Annual International Symposium on Computer Architecture (ISCA) s. 548 - 560
Hlavní autoři: Jiecao Yu, Lukefahr, Andrew, Palframan, David, Dasika, Ganesh, Das, Reetuparna, Mahlke, Scott
Médium: Konferenční příspěvek
Jazyk:angličtina
Vydáno: ACM 01.06.2017
Témata:
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.