Scaling up stochastic gradient descent for non-convex optimisation

Stochastic gradient descent (SGD) is a widely adopted iterative method for optimizing differentiable objective functions. In this paper, we propose and discuss a novel approach to scale up SGD in applications involving non-convex functions and large datasets. We address the bottleneck problem arisin...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:Machine learning Jg. 111; H. 11; S. 4039 - 4079
Hauptverfasser: Mohamad, Saad, Alamri, Hamad, Bouchachia, Abdelhamid
Format: Journal Article
Sprache:Englisch
Veröffentlicht: New York Springer US 01.11.2022
Springer Nature B.V
Schlagworte:
ISSN:0885-6125, 1573-0565
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!