Scaling Up Optuna: P2P Distributed Hyperparameters Optimization

ABSTRACT In machine learning (ML), hyperparameter optimization (HPO) is the process of choosing a tuple of values that ensures an efficient deployment and training of an AI model. In practice, HPO not only applies to ML tuning but can also be used to tune complex numerical simulations. In this conte...

Celý popis

Uložené v:
Podrobná bibliografia
Vydané v:Concurrency and computation Ročník 37; číslo 4-5
Hlavný autor: Cudennec, Loïc
Médium: Journal Article
Jazyk:English
Vydavateľské údaje: Hoboken, USA John Wiley & Sons, Inc 28.02.2025
Wiley Subscription Services, Inc
Wiley
Edícia:e70008
Predmet:
ISSN:1532-0626, 1532-0634
On-line prístup:Získať plný text
Tagy: Pridať tag
Žiadne tagy, Buďte prvý, kto otaguje tento záznam!
Buďte prvý, kto okomentuje tento záznam!
Najprv sa musíte prihlásiť.