La fine frontière entre Intelligence artificielle et bêtise artificielle

Qu’attendez-vous d’un chatbot ? Qu’il prenne les mêmes modes opératoires qu’un humain, avec les qualité et défauts qui en découlent, ou qu’il réagisse telle une machine programmée pour résoudre votre problème ?

Questionnement qu’il est légitime de se poser, concernant l’avenir de l’intelligence artificielle. La tendance aujourd’hui serait à une IA imitant les humains pour être acceptée. Preuves, prix et tests à l’appui : tel le test d’Alan Turing, qui juge la machine sur sa capacité à imiter l’Homme par le langage, ou le prix Loebner qui récompense chatbots et autres assistants audio sur leur capacité à adopter notre acabit.

Or, pourquoi brider l’accumulation de savoirs si développée des robots en les programmant pour faire des erreurs si humaines et à ralentir leur temps de calcul de formules mathématiques complexes, uniquement pour que nous puissions les confondre avec des humains ? Contradictoire avec notre attente d’intelligences efficaces et rapides dans la résolution de problèmes !

Pourquoi alors ne pas considérer un programme comme autonome dans son apprentissage et lui laisser développer son propre langage sans refléter ces erreurs qui nous sont propres ? Faire communiquer la machine comme un humain a le don de nous rassurer, mais en agissant de cette façon, nous sommes amenés à nous priver d’une richesse capitale concernant notre futur. Brider la machine en lui apprenant à commettre les mêmes erreurs que nous reviendrait à basculer dans la bêtise artificielle.

Pour aller plus loin : « Humain, trop humain » de Javier Gonzalez (Les Echos, mai 2018)