Astraea: Grammar-Based Fairness Testing

Software often produces biased outputs. In particular, machine learning (ML) based software is known to produce erroneous predictions when processing discriminatory inputs . Such unfair program behavior can be caused by societal bias. In the last few years, Amazon, Microsoft and Google have provided...

Celý popis

Uložené v:
Podrobná bibliografia
Vydané v:IEEE transactions on software engineering Ročník 48; číslo 12; s. 5188 - 5211
Hlavní autori: Soremekun, Ezekiel, Udeshi, Sakshi, Chattopadhyay, Sudipta
Médium: Journal Article
Jazyk:English
Vydavateľské údaje: New York IEEE 01.12.2022
IEEE Computer Society
Predmet:
ISSN:0098-5589, 1939-3520
On-line prístup:Získať plný text
Tagy: Pridať tag
Žiadne tagy, Buďte prvý, kto otaguje tento záznam!
Buďte prvý, kto okomentuje tento záznam!
Najprv sa musíte prihlásiť.