ATTENTION/WARNING - NE PAS DÉPOSER ICI/DO NOT SUBMIT HERE

Ceci est la version de TEST de DIAL.mem. Veuillez ne pas soumettre votre mémoire sur ce site mais bien à l'URL suivante: 'https://thesis.dial.uclouvain.be'.
This is the TEST version of DIAL.mem. Please use the following URL to submit your master thesis: 'https://thesis.dial.uclouvain.be'.
 

Le droit anti-discrimination combiné à la protection des données personnelles permettent-ils de remédier aux biais algorithmiques dans le recrutement ? Mécanismes protecteurs, questions de transparence et solutions collectives pour l’usage de l’intelligence artificielle

(2020)

Files

Capelli_69831800_2020.pdf
  • UCLouvain restricted access
  • Adobe PDF
  • 1.29 MB

Details

Supervisors
Faculty
Degree label
Abstract
Ce mémoire vise à déterminer comment le droit actuel traite les biais algorithmiques engendrant des discriminations dans le domaine du recrutement. Quelles difficultés pose l’utilisation de systèmes automatisés au regard du droit à l’égalité et à la non-discrimination ? Quelles réponses et quels outils apportent la législation anti-discrimination et le Règlement général sur la protection des données au candidat potentiellement défavorisé par la décision automatisée ? À quelles informations ce candidat a-t-il droit en cas de suspicion de discrimination ? Ces réponses et outils sont-ils suffisants et adéquats afin de prévenir, ou du moins de contenir ces conséquences discriminatoires ? La complémentarité de ces deux législations n’est pas évidente de prime abord. Retenons que le candidat évincé, potentiellement victime d’une discrimination, est également une « personne concernée » disposant de droits sous le RGPD. Par ces questions, nous abordons notamment la qualification des biais en discrimination directe et indirecte, la preuve du caractère discriminant de certaines décisions algorithmiques, les définitions de données sensibles et de données proxies dans le cadre du principe de "data sanitisation" du RGPD, ainsi que le droit à obtenir une explication sur la décision prise en vertu du RGPD. Des mécanismes collectifs tels que la reconnaissance des discriminations systémiques et une analyse, dès la conception du modèle, des impacts des systèmes en termes de risques pour le droit à l'égalité concluent ces recherches.