Un outil de justice numérique fondé sur des préjugés raciaux

Mot-clé : gouvernance
Catégorie : loi

De quoi s’agit-il? Les auteurs d’une étude consacrée à un outil algorithmique utilisé par de nombreux États américains pour calculer la probabilité de récidive d’un délinquant violent ont constaté que cet outil attribuait, de manière erronée et disproportionnée, des cotes de risque plus élevées aux Noirs et des cotes plus faibles aux Blancs. L’étude, menée par l’organisme de presse d’investigation sans but lucratif ProPublica, a analysé les résultats de l’utilisation d’un outil numérique d’évaluation des risques qui devait permettre de calculer avec précision la probabilité de récidive de délinquants violents. Cependant, l’étude menée par ProPublica sur l’outil largement utilisé a permis de constater que ce dernier ne prévoyait avec exactitude la récidive violente que dans tout au plus 61 % des cas, c’est-à-dire seulement légèrement mieux que ce que ferait le hasard.

Et alors? Loin de constituer une solution rapide à des problèmes systémiques, l’utilisation d’algorithmes d’aide à la prise de décisions dans des domaines extrêmement complexes tels que le droit ou la gouvernance peut engendrer des difficultés supplémentaires qui mettent en lumière les problèmes de longue date avec lesquels ces secteurs sont déjà aux prises, comme les préjugés raciaux.

Source : ProPublica - Machine Bias et ProPublica - How We Decided to Test Racial Bias in Algorithms

Icone signaux faibles économie
    
Icone signaux faibles environnement
    
Icone signaux faibles gouvernance
    
Icone signaux faibles sécurité
    
Icone signaux faibles sociale
    
Icone signaux faibles technologie

Date modified

2017-03-29