Framavox

Éviter les discriminations en CRÉANT des features de contrôle sensible

Pierre-Alain
Pierre-Alain Public Seen by 43

Merci pour votre excellent travail très précieux !
Le principe "ne pas créer de données caractéristiques (“features”) qui équivaudraient à des données personnelles sensibles si leur usage peut entraîner des effets discriminatoires illégaux ou illégitimes " me paraît infondé. Des variables proxy amènent en effet souvent une discrimination sans justement l'existence de la variable de discrimination (exemples frequents et article Fairness through awareness ici https://arxiv.org/abs/1104.3913). Une autre approche est de corriger explicitement un modèle pour éviter une discrimination. Cf cet introduction visuelle https://research.google.com/bigpicture/attacking-discrimination-in-ml/ d'un article scientifique proposant une méthode correctrice http://papers.ai/1610.02413 . Cela impose cependant de poser explicitement l'objectif d'équité, ce qui n'est pas évident, mais plus realiste que d'espérer l'éviter en "fermant les yeux" sur les variables discriminantes.
L'enjeu est complexe, mais central pour vraiment espérer limiter la discrimination des algorithmes de ML

Sami Moustachir

Sami Moustachir June 27th, 2018 09:31

Bonjour Pierre-Alain,
Félicitation pour être le premier contributeur!
Tu as une remarque très intéressante puisque nous avons discuté justement de ce cas dans l'élaboration des features. De mon côté, je pense que le plus gros préjudice actuellement est le fait qu'on ne se rende même pas compte de tels proxys. Nous avions eu pour idée un moment d'aborder comme dans tes articles des scénarios pour éventuellement "enseigner" et aider à apporter un certain regard critique.
Qu'en penses tu ? Essayer d'avoir des exemples plus proches de nous qui viendraient de cas d'usage en France plutôt que les exemples habituels dans la littérature qui se trouvent la plupart du temps aux Etats Unis.