Skip to content

Fairness Through Awareness

wmvogelsang edited this page Feb 26, 2018 · 2 revisions

Summary

Original Paper

  • Lipschitz-Fairness:

  • Ähnliche Individueen sollen ähnlich behandelt werden

    • Seien d, D Metriken in V und A respektive, dann soll gelten für ein Mapping M: V -> \Delta (A)
    • D(M(x), M(y)) <= d(x,y) wobei
    • \Delta (A) eine Wahrscheinlichkeitsfunktion über Ergebnisse A ist und
    • x, y \in V
  • Die Schwierigkeit hierbei ist das Finden von d und D

  • Für die Auswahl des passenden D wird eine Loss-Function verwendet, die Fairness und Güte des Classifiers bewertet

  • (2) bis (4) auf Seite 5 beschreibt das daraus entstehende Optimierungsproblem

  • D_{tv} und D_\infty werden als mögliche D vorgeschlagen

    • Es folgen Beweise zur Güte
  • Fairness Problem ist sehr ähnlich zu Differential Privacy Problem

    • Allerdings leichter lösbar
  • Wenn ein Problem Lipschitz-fair ist, erfüllt es auch Statistical Parit, abgesehen von Sonderfällen wie auf Seite 12

  • In den Fällen ist eine vorgeschlagene Lösung aus den unterschiedenen Klassen S und T alle x \in S mit möglichst kleinen Distanzen Lipschitz-fair nach T zu übertragen und anschließend nurnoch auf T zu arbeiten

    • Hieraus ergibt sich auch eine neue Loss-Function, über die zu optimieren ist
  • Alternative Lösung: Alle x \in S vergraulen, so, dass man diese nicht mehr unfair behandelt, da man sie gar nicht mehr in Zielgruppe führt (Seite 12 unten)

Tasks and Ideas

  • Wenn wir Gruppen haben, auf denen wir anhand einer Unterscheidung nicht fair mit statistical pairity arbeiten können, dann sollten wir diese Unterscheidung weg fallen lassen und Elemente der einen Gruppe passend in die andere integrieren
  • Kriterium für Lipschitz-Fairness, dieses kennen wir allerdings bereits
  • Loss-Function könnte implementiert werden, die wir dann zur Optimisierung verwenden können
Clone this wiki locally