AdapCC: Making Collective Communication in Distributed Machine Learning Adaptive
As deep learning (DL) models continue to grow in size, there is a pressing need for distributed model learning using a large number of devices (e.g., G PU s) and servers. Collective communication among devices/servers (for gradient synchronization, intermediate data exchange, etc.) introduces signif...
Gespeichert in:
| Veröffentlicht in: | Proceedings of the International Conference on Distributed Computing Systems S. 25 - 35 |
|---|---|
| Hauptverfasser: | , , |
| Format: | Tagungsbericht |
| Sprache: | Englisch |
| Veröffentlicht: |
IEEE
23.07.2024
|
| Schlagworte: | |
| ISSN: | 2575-8411 |
| Online-Zugang: | Volltext |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Schreiben Sie den ersten Kommentar!