Loading...

L’ensemble des contenus Business Digest est exclusivement réservé à nos abonnés.
Nous vous remercions de ne pas les partager.

Pépite

Sexistes ou racistes, les algorithmes ? Ça se corrige !

Mauvaise nouvelle : les algorithmes, omniprésents, sont potentiellement discriminatoires. Bonne nouvelle : l’intelligence artificielle peut aussi repérer les variables à l’origine de biais injustes.

Le terme « algorithme » est auréolé d’une rassurante objectivité technique, mais ne croyez pas que les décisions prises par des programmes sont plus neutres que les choix humains. Elles peuvent être tout aussi subjectives. Christophe Pérignon, professeur à HEC, relate un exemple d’algorithme attribuant à un célèbre développeur une limite de crédit bancaire 20 fois supérieure à celle de son épouse, au profil financier pourtant identique. En effet, l’intelligence artificielle est basée sur des données sélectionnées par des humains, donc potentiellement biaisées. Et allez retrouver la variable incriminée parmi les milliers utilisées pour fabriquer l’algorithme – une véritable boîte noire ! Glaçant, quand on connait le rôle crucial des algorithmes dans nos vies, de la reconnaissance faciale à la sélection de CV.  

Mais Christophe Pérignon et ses co-auteurs ont trouvé une parade. Ils ont conçu un test statistique qui détermine si un algorithme est équitable ou non, et ont réussi à trouver comment repérer la variable à l’origine du biais injuste. Ne reste plus qu’à espérer que les institutions adoptent l’outil.  

Pour aller plus loin

“A $%^* Sexist Program: Detecting and Addressing AI Bias”

(Christophe Pérignon, HEC, décembre 2020).  

© Copyright Business Digest - Tout droit réservé

Andrea Davoust
Publié par Andrea Davoust
A French/English bilingual journalist with more than 15 years’ experience in the press, multimedia, and publishing.