Modeling Variation in Human Feedback with User Inputs: An Exploratory Methodology

To expedite the development process of interactive reinforcement learning (IntRL) algorithms, prior work often uses perfect oracles as simulated human teachers to furnish feedback signals. These oracles typically derive from ground-truth knowledge or optimal policies, providing dense and error-free...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:2024 19th ACM/IEEE International Conference on Human-Robot Interaction (HRI) s. 303 - 312
Hlavní autoři: Huang, Jindan, Aronson, Reuben M., Short, Elaine Schaertl
Médium: Konferenční příspěvek
Jazyk:angličtina
Vydáno: ACM 11.03.2024
Témata:
On-line přístup:Získat plný text
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
Buďte první, kdo okomentuje tento záznam!
Nejprve se musíte přihlásit.