Bitvore : l’IA qui permet d’expliquer ses résultats Premium

Pour lire ce dossier dans son intégralité, devenez Abonné Privilégié ou connectez-vous

Dans son ouvrage Everyday Chaos, David Weinberger nous exhorte à accepter le chaos créé par le volume phénoménal d’informations auquel nous avons accès, de nos jours. C’est l’innovation technique qui permet de rendre ce chaos visible et de l’exploiter. Pour Greg Bolcer, CDO de Bitvore, il est important que nous y donnions un sens.

D’après une interview de Gregory Alan Bolcer, Chief Data Officer, chez Bitvore (Juin 2019)

 

Biographie

Actuellement CDO,Greg Bolcer est également le créateur du jeu vidéo en réseau Kerosene and a Match (2019). Précédemment il était fondateur et vice-président de l’ingénierie chez High Tower Software et architecte logiciel en chef d’Encryptanet. Les technologies web, protocoles Internet, e-commerce et micropaiements, chiffrement et sécurité, flux de travail reposant sur les réseaux, gestion des droits numériques et l’ingénierie logicielle comptent parmi ses domaines de spécialisation.

 

 

Lorsque la ville californienne de Stockton a fait faillite en 2012, Greg Bolcer n’a pas été surpris par l’événement, qui selon lui, était prévisible. « C’est de l’humour noir », dit-il aujourd’hui comme pour s’excuser. « Nous tenons à jour une liste des villes qui, selon nous, risquent de faire faillite l’année prochaine ». Greg Bolcer n’est pas devin mais CDO de Bitvore, société dont la spécialité consiste à utiliser l’intelligence artificielle pour parcourir différentes sources d’informations (actualités en provenance des médias, communiqués de presse, déclarations d’entreprises, etc.) afin d’aider les entreprises à identifier des opportunités commerciales, mais aussi des tendances et des facteurs de risques. C’est ce qu’on appelle en interne « le renseignement de précision ». 

Certains clients de Bitvore (dont des agences de notation de premier plan, qui utilisent les services de la société pour suivre l’état financier des municipalités) se sont d’abord montrés sceptiques quant à la prédiction de Bitvore concernant Stockton, prédiction qui s’est pourtant révélée exacte plusieurs mois après. « Elles élaborent leurs propres analyses, mais souhaitent tout de même prendre connaissance des nôtres », confie Greg Bolcer à propos des agences de notation. 

 

Expliquer des « modèles inexplicables »
(et regarder dans la boite noire)
 

Certains systèmes d’IA fonctionnent comme une boîte noire. Ils permettent d’assembler un volume d’informations considérable, à partir de sources multiples, pour établir des relations et des prédictions impossibles à réaliser pour un être humain. Pour autant, les motifs qui sous-tendent les résultats obtenus ne sont pas toujours expliqués ou restent inexplicables en termes humains. C’est ce que David Weinberger appelle modèles inexplicables« Nous nous sommes habitués à ce que la plupart de ce que nous faisons ne puisse être expliqué ou n’ait pas besoin de l’être », déclare l’auteur dans son ouvrage. « Les théories ont évidemment toujours de la valeur, mais s’il existe une manière d’influencer le comportement des consommateurs ou de guérir une maladie génétique, nous n’attendons pas une théorie pour passer à l’action ». 

Or, selon Greg Bolcer, ses clients exigent d’obtenir une explication avant toute action. Ils veulent trouver un sens au chaos. « Les humains doivent être impliqués dans le processus si nous voulons  être capable d’expliquer à un humain ce qu’a fait le système », ajoute-t-il. Il arrive parfois que l’IA donne la bonne réponse mais pour les mauvaises raisons. Il est important de le savoir. Il arrive aussi qu’elle donne la mauvaise réponse ; le contrôle humain reste donc le meilleur moyen de détecter les erreurs. 

 

Détecter les erreurs (car l’IA peut avoir de l’humour) 

Selon Greg Bolcer admeton ne prête pas toujours attention à la manière dont l’IA permet d’aboutir à une solution (pour les contenus audiovisuels, par exemple). Le site Web ThisPersonDoesNotExist génère des visages très réalistes de personnes qui n’existent pas. Comment ou pourquoi l’IA a-t-elle créé ces visages n’est pas important. Ce qui importe c’est qu’ils soient crédibles. 

Extrait de Business Digest N°299, septembre 2019

Pour aller plus loin

Retrouvez notre dossier en intégralité

Le quiz

Êtes-vous chaos compatible ?

Point de vue

6 mots clés pour les stratégies de demain

Témoignage

Bitvore : l’intelligence artificielle qui permet d’expliquer ses résultats

Pour lire l'intégralité du dossier, vous devez être abonné :

Si vous êtes déjà abonné, connectez-vous

Abonnement classique

Business Digest classique

190 euros HT

(TVA 2.1%)

Je m’abonne
Abonnement numérique

Business Digest numérique

390 euros HT

(TVA 2.1%)

Je m’abonne
Abonnement premium

Business Digest premium

535 euros HT

(TVA 2.1%)

Je m’abonne