Umfang

Dieses Thema kann als Bachelorarbeit oder Teil einer Projektarbeit oder auch im Rahmen einer Masterarbeit bearbeitet werden.

Einleitung

Künstliche Intelligenz und Machine Learning-Techniken werden ein zunehmend größerer Teil unseres Alltags. Jedoch sind solche Algorithmen stark von den Daten abhängig, mit welchen sie gefüttert wurden, welche oft einen bestimmten Bias gegenüber einigen Bevölkerungsschichten besitzen: Die Systeme diskriminieren.

Als Gegenbewegung ist die Forschung zur algorithmischen Fairness und fairem Machine Learning in den letzten Jahren stark gewachsen und es wurden diverse Verfahren entwickelt, um nicht-diskriminierende Klassifikatoren zu trainieren, als auch Fairness-Bedingungen definiert welche es zu erfüllen gilt.

Eine solche Fairness-Definition ist “Individual Fairness”, unter welcher Individuen entsprechend ihrer Ähnlichkeit auch ähnlich behandelt werden müssen. Jedoch ist die Wahl einer entsprechenden Ähnlichkeitsfunktion nicht trivial.

Problemstellung

In dieser Arbeit soll ein Ansatz modelliert, implementiert und analysiert werden, mit welchem man ein Ähnlichkeitsmaß auf den Eingabedaten generiert unter welchem man Individual Fairness fordern kann.

Hierbei sollen die Eingabe-Features entsprechend ihrer Relevanz bezüglich der Ground Truth gewichtet werden um die Ähnlichkeit in Abhängigkeit zur Zielvariable zu setzen.

Empfohlene Vorkenntnisse

  • Machine Learning
  • Grundlegende Kenntnisse von Statistik und Analysis

Minimalanforderungen

  • Framework zur Generierung von Ähnlichkeitsmaß wie oben beschrieben
  • Analyse der erreichten Fairness auf Individuen nahe der Entscheidungsgrenze
  • Vergleich mit verwandten Ansätzen

Variationen/Erweiterungen

  • Auswertung auf verschiedenen Datensätzen
  • Umgang mit Bias in den Trainingsdaten
  • Ansätze für alternative Ähnlichkeitsmaße

Kontakt

Jannik Dunkelau
Raum 25.12.02.52 · jannik.dunkelau@hhu.de