Comprendre comment ça marche – c’est vital
4 profs de Harvard et l’Insead nous racontent non seulement pourquoi l’intelligence artificielle peut se planter, mais détaillent aussi les risques pour les entreprises qui s’en servent et explorent (ouf !) des parades.
On le sait, le machine learning (des algorithmes adaptant leurs décisions à partir de données remises à jour) est faillible, pouvant envoyer une voiture en autopilote dans le décor ou émettre un diagnostic médical erroné. D’où l’image classique de la boite noire. Heureusement, Boris Babic et ses co-auteurs réduisent plutôt l’AI à une boite à outils. Ils expliquent avec grande pédagogie les effets de la sélection des données, et de leur lien avec l’environnement dans lequel les décisions sont appliquées. Les exemples sont tellement parlant (notamment celui des images de lésions de la peau dans les diagnostics de cancer) qu’on a presque envie de rebaptiser l’IA intelligence aléatoire. Sans parler des risques légaux et éthiques pour les entreprises qui l’utilisent. Heureusement, il existe des solutions (dont le « verrouillage » des algorithmes). Un article indispensable à lire quand on utilise l’AI, non seulement pour se sentir plus malin qu’une machine, mais surtout pour se poser les bonnes questions.
“When Machine Learning Goes Off the Rails, A guide to managing the risks”
(Boris Babic, I. Glenn Cohen, Theodoros Evgeniou et Sara Gerke, (Harvard Business Review, Janvier 2021).
© Copyright Business Digest - Tout droit réservé