Scaling Up Optuna: P2P Distributed Hyperparameters Optimization
ABSTRACT In machine learning (ML), hyperparameter optimization (HPO) is the process of choosing a tuple of values that ensures an efficient deployment and training of an AI model. In practice, HPO not only applies to ML tuning but can also be used to tune complex numerical simulations. In this conte...
Gespeichert in:
| Veröffentlicht in: | Concurrency and computation Jg. 37; H. 4-5 |
|---|---|
| 1. Verfasser: | |
| Format: | Journal Article |
| Sprache: | Englisch |
| Veröffentlicht: |
Hoboken, USA
John Wiley & Sons, Inc
28.02.2025
Wiley Subscription Services, Inc Wiley |
| Schriftenreihe: | e70008 |
| Schlagworte: | |
| ISSN: | 1532-0626, 1532-0634 |
| Online-Zugang: | Volltext |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Schreiben Sie den ersten Kommentar!