Les IA conversationnelles sont des mecs (en fait)

Les assistantes polies comme Alexa ou Siri sont présentées ou perçues comme des femmes. Mais le champion Watson correspond bien aux modèles de discours masculins. Et ce qui est surprenant, c’est que les préjugés touchant les IA vont bien au-delà des stéréotypes sexistes …

En 2019 l’Unesco a publié un rapport mettant en garde contre les dégâts collatéraux d’IA sexuées. Les auteurs critiquent le fait que la plupart des IA conversationnelles ont un prénom et une voix féminine alors même qu’ils se targuent d’être sans genre. Ils mettent aussi en garde contre le danger de limiter le biais à la voix ou au pronom.   

Car l’essentiel des codeurs sont des mâles plutôt de type occidental. Seuls 15% et 10% des effectifs de Facebook et de Google en IA, respectivement, sont des femmes. Les chiffres sont encore plus sombres en ce qui concerne la diversité raciale. Si le premier biais est le talent qui développe le code, un second biais est le manque de transparence algorithmique (car en l’absence de contrôle, les préjugés, les hypothèses et les stéréotypes personnels sont intégrés dans les algorithmes).  

C’est ainsi que le biais des genres est très largement dépassé par des considérations éthiques plus larges, auxquelles les concepteurs devraient accorder beaucoup plus d’attention, et même rompre avec la simple dichotomie binaire des genres. Car à y regarder de près, l’IA conversationnelle pourrait avoir des impacts dans le changement social bien au-delà de la dichotomie homme / femme. 

  

Pour en savoir plus :« Conversational AI Can Propel Social Stereotypes » de Sharon Horowitt-Hendler et James Hendler, (Wired janvier 2020)