Understanding and optimizing asynchronous low-precision stochastic gradient descent

Stochastic gradient descent (SGD) is one of the most popular numerical algorithms used in machine learning and other domains. Since this is likely to continue for the foreseeable future, it is important to study techniques that can make it run fast on parallel hardware. In this paper, we provide the...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:2017 ACM/IEEE 44th Annual International Symposium on Computer Architecture (ISCA) s. 561 - 574
Hlavní autoři: De Sa, Christopher, Feldman, Matthew, Re, Christopher, Olukotun, Kunle
Médium: Konferenční příspěvek
Jazyk:angličtina
Vydáno: ACM 01.06.2017
Témata:
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.