Plein ecran

Les Noirs auraient plus de chances de se faire renverser par une voiture autonome

04/03

Des chercheurs du Georgia Institute of Technology à Atlanta aux États-Unis ont mis en évidence les biais racistes des systèmes de reconnaissance. La détection de piétons à la couleur de peau foncée serait moins précise que pour les personnes blanches. […] À l’heure des voitures autonomes, il y a fort à craindre que les rues restent plus dangereuses pour les individus à la peau foncée.

C’est du moins la conclusion d’un nouveau rapport publié le 21 février par une équipe de chercheurs américains. Ceux-ci ont confronté huit systèmes de reconnaissance (sans préciser lesquels) à plusieurs dizaines de milliers d’images de piétons prises à New York, Berkeley, San Francisco et San Jose, et dans diverses conditions météorologiques. Les résultats indiquent que les algorithmes de détection existants sont généralement moins performants lorsqu’il s’agit d’identifier des personnes noires.  […]

Les chercheurs ont réparti les piétons dans deux groupes, l’un de couleur claire et l’autre de couleur foncée, à l’aide de la classification de Fitzpatrick (1 à 3 pour les tons clairs et 4 à 6 pour les tons foncés). Selon leurs analyses, la précision de détection de ces systèmes est en moyenne inférieure de 5 points de pourcentage pour le groupe à la peau noire. […]

Ce n’est pas la première fois qu’un algorithme est taxé de racisme. En 2015 déjà, le logiciel de reconnaissance faciale de Google Photos avait confondu des Afro-américains avec des gorilles. Celui d’Amazon ne serait guère plus performant : une étude dévoilée en janvier par la chercheuse Joy Buolamwini au MIT Media Lab révélait que Rekognition, son système de reconnaissance faciale, avait plus de mal à détecter les visages des personnes noires ainsi que des femmes. L’algorithme ne se trompait jamais en identifiant des hommes à la peau claire, mais confondait les femmes noires avec des hommes dans 31 % des cas.

Pour dénoncer ces disparités, Joy Buolamwini a fondé l’Algorithmic Justice League. « Les biais algorithmiques peuvent mener à de l’exclusion et des pratiques discriminatoires », notamment dans le cadre d’enquêtes policières […].

Usbek & Rica

Record d'enfants enlevés en Suisse en 2018 : "Cette hausse est liée à l'augmentation du nombre de mariages binationaux"
Crise en Algérie : pour Apathie, la France est dominée par «la trouille»

Commentaires

Accueil
Menu
X