Scaling Up Optuna: P2P Distributed Hyperparameters Optimization
ABSTRACT In machine learning (ML), hyperparameter optimization (HPO) is the process of choosing a tuple of values that ensures an efficient deployment and training of an AI model. In practice, HPO not only applies to ML tuning but can also be used to tune complex numerical simulations. In this conte...
Uložené v:
| Vydané v: | Concurrency and computation Ročník 37; číslo 4-5 |
|---|---|
| Hlavný autor: | |
| Médium: | Journal Article |
| Jazyk: | English |
| Vydavateľské údaje: |
Hoboken, USA
John Wiley & Sons, Inc
28.02.2025
Wiley Subscription Services, Inc Wiley |
| Edícia: | e70008 |
| Predmet: | |
| ISSN: | 1532-0626, 1532-0634 |
| On-line prístup: | Získať plný text |
| Tagy: |
Pridať tag
Žiadne tagy, Buďte prvý, kto otaguje tento záznam!
|
Buďte prvý, kto okomentuje tento záznam!