Scaling up stochastic gradient descent for non-convex optimisation
Stochastic gradient descent (SGD) is a widely adopted iterative method for optimizing differentiable objective functions. In this paper, we propose and discuss a novel approach to scale up SGD in applications involving non-convex functions and large datasets. We address the bottleneck problem arisin...
Gespeichert in:
| Veröffentlicht in: | Machine learning Jg. 111; H. 11; S. 4039 - 4079 |
|---|---|
| Hauptverfasser: | , , |
| Format: | Journal Article |
| Sprache: | Englisch |
| Veröffentlicht: |
New York
Springer US
01.11.2022
Springer Nature B.V |
| Schlagworte: | |
| ISSN: | 0885-6125, 1573-0565 |
| Online-Zugang: | Volltext |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Schreiben Sie den ersten Kommentar!