Pourquoi une règle HUD proposée pourrait aggraver la discrimination liée au logement basée sur un algorithme

En 1968, le Congrès a été adopté et le président Lyndon B. Johnson a ensuite promulgué la Fair Housing Act (FHA), qui interdit la discrimination liée au logement sur la base de la race, de la couleur, de la religion, du sexe, du handicap, du statut familial et de l'origine nationale. La réglementation administrative et les affaires judiciaires au cours des décennies qui ont suivi la promulgation de la FHA ont contribué à façonner un cadre qui, malgré toutes ses lacunes, a néanmoins été un outil essentiel pour lutter contre la discrimination en matière de logement. Mais une proposition de règle publiée en août 2019 par le ministère du Logement et du Développement urbain (HUD) menace de saper les tentatives de lutte contre la discrimination liée au logement basée sur des algorithmes.

La FHA jouera un rôle clé dans la mesure où les algorithmes de financement, de zonage, de souscription et d'autres activités du secteur du logement seront largement adoptés au cours des prochaines années. Alors que certains algorithmes seront conçus et mis en œuvre de manière à atténuer les biais et les modèles de logement discriminatoires qui en résultent, d'autres auront l'effet inverse. Lorsque cela se produit, la FHA devrait faciliter – et non entraver – le jugement des plaintes pour discrimination.

La FHA, qui est administrée par le Département du logement et du développement urbain (HUD), traite non seulement de la discrimination intentionnelle mais également de la discrimination involontaire. Par exemple, une discrimination intentionnelle se produit si un propriétaire foncier refuse «de vendre ou de louer un logement» sur la base d'une caractéristique protégée telle que la race. Une discrimination involontaire peut survenir si, par exemple, un prêteur a des politiques qui semblent neutres en ce qui concerne les caractéristiques protégées mais désavantagent par inadvertance les demandeurs de prêt d'un groupe protégé. Comme l'expliquent les règlements élaborés en vertu de la FHA, «(l) la responsabilité peut être établie en vertu de la Fair Housing Act sur la base de l'effet discriminatoire d'une pratique. . . même si la pratique n'était pas motivée par une intention discriminatoire. »

Les cadres de lutte contre la discrimination involontaire sont particulièrement importants dans le contexte des algorithmes. Alors que peu de développeurs d'algorithmes à utiliser dans le secteur du logement se livreraient délibérément à une discrimination illégale, la combinaison de biais dans les données et d'angles aveugles parmi les programmeurs même les plus bien intentionnés signifie que certains algorithmes finiront néanmoins par produire des résultats discriminatoires. Cela pourrait renforcer, voire amplifier, les schémas existants de ségrégation et de discrimination.

Le système judiciaire jouera un rôle vital pour statuer sur les allégations selon lesquelles un algorithme est biaisé d'une manière qui viole la FHA. Malheureusement, la règle proposée par HUD devrait augmenter considérablement le fardeau des plaignants d'une manière qui limitera gravement la FHA en tant qu'outil de lutte contre la discrimination.

La règle proposée énonce un ensemble rigoureux d'exigences – appelées «fardeau prima facie» – auxquelles doit satisfaire un demandeur qui dépose une plainte pour «effet discriminatoire». Bien que ce fardeau ne soit pas spécifique aux allégations de discrimination impliquant des algorithmes, il sera particulièrement difficile à satisfaire lorsque des algorithmes sont impliqués. L'une des exigences est que le demandeur «énonce des faits alléguant de manière plausible» qu'il existe «un lien de causalité solide entre la politique ou la pratique contestée et un impact disparate sur les membres d'une classe protégée qui montre que la pratique spécifique est la cause directe de la effet discriminatoire.  » Cela sera très difficile à faire sans avoir accès aux informations sur le fonctionnement interne d'un algorithme qui seraient souvent nécessaires pour identifier une «politique» discriminatoire. Mais cette information ne serait généralement pas disponible pour un demandeur aux premiers stades du litige étant donné les protections des secrets commerciaux que les défendeurs invoqueront presque toujours.

Le demandeur devra également «énoncer des faits alléguant de manière plausible» que «la politique ou la pratique contestée est arbitraire, artificielle et inutile pour atteindre un intérêt valide ou un objectif légitime tel qu'une entreprise pratique, un profit, une considération de politique ou une exigence de la loi.  » Cela peut imposer un fardeau insurmontable aux plaignants qui, n'ayant pas accès aux détails de l'algorithme, peuvent être incapables de prouver qu'une pratique ou une politique est à la fois «arbitraire, artificielle et inutile». Pour prendre un exemple, montrer qu'une politique n'est pas nécessaire nécessitera généralement une connaissance suffisante de l'algorithme associé pour démontrer que le même objectif de politique peut être atteint par une approche différente et moins discriminatoire.

En plus de faire des demandes onéreuses aux plaignants, la règle proposée offre aux défendeurs un éventail de moyens de défense affirmatifs, dont chacun est suffisant pour amener un tribunal à rejeter l'affaire. En ce qui concerne un algorithme prétendument biaisé, un défendeur peut échapper à sa responsabilité en montrant que le «modèle contesté est produit, maintenu ou distribué par un tiers reconnu qui détermine les normes de l'industrie, les intrants et les méthodes du modèle ne sont pas déterminés par le défendeur , et le défendeur utilise le modèle comme prévu par le tiers.  » C’est ce qui équivaut à une défense «ce n’est pas de ma faute» permettant aux défendeurs de détourner le blâme sur les entités situées plus haut dans la chaîne d’approvisionnement des algorithmes.

Un autre moyen encore pour les défendeurs d'échapper à leur responsabilité est de fournir «les facteurs matériels qui composent les intrants utilisés dans le modèle contesté et de montrer (ing) que ces facteurs ne reposent en aucune manière matérielle sur des facteurs qui sont des substituts ou des procurations proches pour les personnes protégées». classes en vertu de la Fair Housing Act.  » Un défendeur pourra souvent avancer une théorie selon laquelle cette démonstration est faite, en particulier lorsque diverses entrées prises en compte par l'algorithme sont traitées de manière complexe.

Selon la règle proposée, la combinaison de 1) les obstacles élevés auxquels sont confrontés les plaignants et 2) la gamme de moyens de défense affirmatifs disponibles pour les défendeurs rendra les demandes de la FHA impliquant une discrimination algorithmique présumée extrêmement difficiles à poursuivre. Une meilleure approche consisterait à formuler une règle qui reconnaîtrait les inconvénients en matière d'information auxquels les demandeurs seront confrontés. Par exemple, les demandeurs au stade prima facie ne devraient pas être tenus d'identifier un particulier politique intégré dans l'algorithme comme suspect. Au lieu de cela, les tribunaux devraient considérer des preuves statistiques quant à savoir si l'algorithme – dans son intégralité – a un impact disparate sur un groupe protégé.

De plus, au stade prima facie, les demandeurs ne devraient pas être tenus de démontrer que l'algorithme fonctionne d'une manière inutile pour la réalisation d'un objectif légitime et non discriminatoire. Au contraire, après que le demandeur a satisfait au fardeau prima facie, le fardeau devrait incomber aux défendeurs de démontrer de façon affirmative que les politiques de l'algorithme servent un objectif légitime et non discriminatoire. Un cadre plus équilibré pour plaider les réclamations de la FHA aiderait à garantir que les algorithmes sont utilisés pour atténuer – par opposition à potentiellement perpétuer – la discrimination dans le secteur du logement.

Vous pourriez également aimer...