Modeling Variation in Human Feedback with User Inputs: An Exploratory Methodology

To expedite the development process of interactive reinforcement learning (IntRL) algorithms, prior work often uses perfect oracles as simulated human teachers to furnish feedback signals. These oracles typically derive from ground-truth knowledge or optimal policies, providing dense and error-free...

Celý popis

Uložené v:
Podrobná bibliografia
Vydané v:2024 19th ACM/IEEE International Conference on Human-Robot Interaction (HRI) s. 303 - 312
Hlavní autori: Huang, Jindan, Aronson, Reuben M., Short, Elaine Schaertl
Médium: Konferenčný príspevok..
Jazyk:English
Vydavateľské údaje: ACM 11.03.2024
Predmet:
On-line prístup:Získať plný text
Tagy: Pridať tag
Žiadne tagy, Buďte prvý, kto otaguje tento záznam!
Buďte prvý, kto okomentuje tento záznam!
Najprv sa musíte prihlásiť.