Explanation-Driven Self-Adaptation Using Model-Agnostic Interpretable Machine Learning
Self-adaptive systems increasingly rely on black-box predictive models (e.g., Neural Networks) to make decisions and steer adaptations. The lack of transparency of these models makes it hard to explain adaptation decisions and their possible effects on the surrounding environment. Furthermore, adapt...
Uloženo v:
| Vydáno v: | ICSE Workshop on Software Engineering for Adaptive and Self-Managing Systems (Online) s. 189 - 199 |
|---|---|
| Hlavní autoři: | , , , |
| Médium: | Konferenční příspěvek |
| Jazyk: | angličtina |
| Vydáno: |
ACM
15.04.2024
|
| Témata: | |
| ISSN: | 2157-2321 |
| On-line přístup: | Získat plný text |
| Tagy: |
Přidat tag
Žádné tagy, Buďte první, kdo vytvoří štítek k tomuto záznamu!
|
Buďte první, kdo okomentuje tento záznam!