Scaling up stochastic gradient descent for non-convex optimisation

Stochastic gradient descent (SGD) is a widely adopted iterative method for optimizing differentiable objective functions. In this paper, we propose and discuss a novel approach to scale up SGD in applications involving non-convex functions and large datasets. We address the bottleneck problem arisin...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:Machine learning Ročník 111; číslo 11; s. 4039 - 4079
Hlavní autoři: Mohamad, Saad, Alamri, Hamad, Bouchachia, Abdelhamid
Médium: Journal Article
Jazyk:angličtina
Vydáno: New York Springer US 01.11.2022
Springer Nature B.V
Témata:
ISSN:0885-6125, 1573-0565
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.