Astraea: Grammar-Based Fairness Testing

Software often produces biased outputs. In particular, machine learning (ML) based software is known to produce erroneous predictions when processing discriminatory inputs . Such unfair program behavior can be caused by societal bias. In the last few years, Amazon, Microsoft and Google have provided...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:IEEE transactions on software engineering Jg. 48; H. 12; S. 5188 - 5211
Hauptverfasser: Soremekun, Ezekiel, Udeshi, Sakshi, Chattopadhyay, Sudipta
Format: Journal Article
Sprache:Englisch
Veröffentlicht: New York IEEE 01.12.2022
IEEE Computer Society
Schlagworte:
ISSN:0098-5589, 1939-3520
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!