Large-scale learning with AdaGrad on Spark

Stochastic Gradient Descent (SGD) is a simple yet very efficient online learning algorithm for optimizing convex (and often non-convex) functions and one of the most popular stochastic optimization methods in machine learning today. One drawback of SGD is that it is sensitive to the learning rate hy...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:2015 IEEE International Conference on Big Data (Big Data) s. 2828 - 2830
Hlavní autoři: Hadgu, Asmelash Teka, Nigam, Aastha, Diaz-Aviles, Ernesto
Médium: Konferenční příspěvek
Jazyk:angličtina
Vydáno: IEEE 01.10.2015
Témata:
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.