Intelligence artificielle : définition, impact, mythes et réalité

L’intelligence artificielle (IA) est sur toutes les lèvres, sauf que peu d’entre nous savent de quoi il en retourne. Dans cette interview réalisée pour la station de radio fréquence protestante aux côtés de mon amie Mireille Garolla, je me suis efforcé de circonscrire ce qu’est l’intelligence artificielle en ses différents niveaux et d’ouvrir quelques perspectives, notamment à la faveur de la lecture d’un livre génial que je recommande à tous ceux qui s’intéresse à ce sujet : « le mythe de la singularité, faut-il craindre l’intelligence artificielle » de Jean Gabriel Ganascia, un scientifique et philosophe de haute vollée qui, malgré son extrême érudition, n’essaie jamais de noyer le lecteur dans un jargon abscons. A noter que l’interview est podcastable en tête de ce billet.

Interview sur l’IA sur Fréquence Protestante (janvier 2018)

J’ai vraiment beaucoup de mal à définir ce qu’est l’intelligence artificielle aujourd’hui et ce qu’on entend par ce terme quand on en parle

C’est une bonne question c’est même par elle que tout devrait commencer. On a aujourd’hui un peu tendance à rencontrer des spécialistes de la technologie qui, dès qu’ils ont construit deux lignes de code, vous vendent de l’intelligence artificielle parce que c’est à la mode et que « ça fait start-up ». Si on ne dit pas que le logiciel en question est basé sur l’intelligence artificielle, cela veut donc dire qu’on est dépassé. En fait, l’intelligence artificielle est un sujet qui est finalement assez ancien. Tout le monde connaît Alan Turing, grâce au fameux film qui a été tourné quelques années avec Benedict Cumberbatch : « The Imitation Game ».

IA image Wikimedia Commons
La machine Enigma, version allemande, modèle 1940 – Image par Gind2005 [CC BY-SA 3.0], Wikimedia Commons
On y racontait l’histoire de de Turing à Bletchley Park, l’endroit où il a justement réalisé le décryptage de la machine « enigma », la machine allemande qui encryptait tous les messages de la Wehrmacht. C’est ce qui a permis d’ailleurs, entre autres choses, d’aider le débarquement en Normandie. L’IA est en fait l’héritier de ce travail de Turing, e aussi de ce que faisaient déjà les polonais dans les années 30 puisque ce sont eux qui avait commencé à créer ces machines qu’on des « bombes ». Cette discipline de l’intelligence artificielle est donc quasiment aussi vieille que que l’informatique elle-même et les débuts des machines mécanographiques.

Dans les années 50, Minsky a réalisé une des premières expériences sur des simulations de rats dans des labyrinthes et c’est en 1951 que, toujours Alan Turing, a inventé le fameux test éponyme pour savoir si une machine était « intelligente » ou non. Puisque notre sujet est justement l’intelligence artificielle, nous devrions pouvoir dire qu’il s’agit de reproduire artificiellement l’intelligence naturelle, si tant est que nous sachions ce qu’est l’intelligence. Or justement, nous ne le savons pas.

C’est un véritable sujet de philosophie. Alors quand on dit que l’intelligence artificielle va remplacer l’homme, j’aimerais renvoyer une autre question : « Qu’est-ce que l’intelligence ? » Une brève recherche sur le suet vous apprendra que finalement, les premières définitions de l’intelligence sont très récentes. Il y a le fameux « QI » de Binet en 1905, mais celui-ci ne donne qu’une toute petite partie de l’intelligence rationnelle. Il fait abstraction de l’intelligence émotionnelle, fort à la mode — à juste titre — ces dernières années. Si on revient sur le test de Turing, il s’agissait justement de savoir si la machine, pour reprendre son papier, « pensait ». Quand il a écrit ce mot sur le papier, il s’est rendu compte qu’il ne pouvait pas écrire cela. Il a donc changé la phrase en se posant la question de savoir si la machine était capable d’imiter l’homme, de jouer un « jeu d’imitation » ou « imitation game » en anglais (d’où le titre du film).

Qu’est-ce ce qui fait que l’IA soit devenue tellement à la mode et qu’on en parle dans à peu près toutes les disciplines ?

Alan Turing – DR – Domaine public par  Wikimedia Commons

Comme c’est une vieille discipline, elle a eu le temps d’évoluer. D’ailleurs, j’ai commencé ma carrière chez Unisys avec un système qu’on appelle un « système expert » il y a une trentaine d’années. C’est toujours un sujet d’actualité parce que ce que vous pouvez voir sur le terrain comme manifestation de l’IA est essentiellement aujourd’hui ce sont essentiellement des systèmes experts que ce soit du « machine learning » ou du « deep learning ». Avec une autre différence, c’est que les algorithmes sont plus sophistiqués, mais surtout les machines deviennent de plus en plus puissantes. Donc ces technologies peuvent enfin se développer au bout de tant d’années parce que on a les matériels et également des conditions favorables. A l’époque, peu de monde faisait de l’informatique, c’était une matière de spécialistes, mais aujourd’hui elle touche tout le monde. La preuve, ce sujet de l’IA passionne tout le monde.

Pour revenir à la question d’origine, faut-il avoir peur ou non de l’IA ?

Pour toute technologie il y a ce que j’ai appelé une « courbe de digestion ». Quand une nouveauté apparaît, avec toutes les nuances qu’il faut mettre sur cette notion de nouveauté autour de l’intelligence artificielle, vous avez toujours deux camps qui se dessinent. D’une part le camp des négativistes « c’est affreux, c’est horrible, cette technologie va tout tuer ». Ce camp là est très vieux, je me souviens d’un film néerlandais des années 80 qui s’appelait « The lift », qui décrivait comment un ascenseur neuronal qui s’était auto-programmé décidait de tuer les gens qui montaient dedans. D’autre part, vous avez l’autre partie de la population qui positive à fond sur ces nouveautés, je les appelle les « technolâtres », qui croient que cette même technologie va résoudre tous les problèmes. Or je pense que pour toute technologie, comme pour toute autre discipline, il faut savoir raison garder, il faut regarder les choses de façon rationnelle. C’est en cela qu’aujourd’hui, il faut se poser la question de savoir si la fameuse singularité — c’est à dire le moment où la machine va devenir plus puissante intellectuellement que l’être humain — va arriver. Time magazine nous dit 2045, je vais vous faire une prédiction : c’est plutôt 2043, en juin, et même le 20 juin exactement ! En fait, ma véritable prévision, c’est plutôt que vous allez devoir lire un livre qui est celui de Jean-Gabriel Ganascia et qui s’appelle « le mythe de la singularité, faut-il craindre l’intelligence artificielle ». Ganascia est un véritable expert scientifique de ce domaine. Il avance qu’il y a beaucoup de fantasmes autour de ces sujets et que quand des personnes projettent leurs peurs ou leurs rêves — surtout il s’agit de personnes crédibles comme Stephen Hawking ou connues comme Raymond Kurzweil — nous ne sommes plus dans le « logos » mais dans le « mythos ». Ces discours irrationnels n’ont finalement plus rien à voir avec l’intelligence artificielle, ils sont liés aux fantasmes des civilisations qui ont peur de mourir.
L’informatique n’est pas une chose nouvelle, elle date de la fin des années 40, et les premiers ordinateurs à transistor un peu plus tard (fin des années 70). Ces technologies arrivent à maturité et l’informatique, de tout temps, a été faite pour automatiser. Comme Turing avec sa machine mécanographique, le décodage d’un code extrêmement complexe a été rendu possible par l’essai d’un nombre de combinaisons phénoménale. C’est un travail simple, mathématique. Les ordinateurs sont capables de calculer beaucoup plus vite qu’un homme donc de réaliser des tâches répétitives beaucoup mieux et plus vite s’ils sont — et les robots qu’ils pilotent — bien programmés.

On fantasme sur l’IA à partir du moment où on sent — et d’ailleurs le nom de votre émission, « transition », est intéressant —une transition en cours, ou une transformation qui n’est d’ailleurs pas forcément une transformation digitale mais une transformation managériale.

C’est l’aboutissement de 30 à 40 ans de travail des informaticiens et j’y ai un peu participé. Toutes ces tâches répétitives qui vont avoir tendance à disparaître n’est pas un phénomène nouveau et on le sent venir depuis longtemps. Seulement, comme dans tout processus technologique il faut du temps. Enfin tout au moins pour les transformations technologiques que je connais, parce que peut-être qu’au 19e siècle paradoxalement les transformations étaient plus brutales. Nous avons l’impression que tout va très vite, mais est-ce vrai ? Ne sont-ce pas surtout les journaux qui vont vite ? Sur le terrain, tout est beaucoup plus lent et  la mise en place des systèmes d’information, on le sait, est très lente. La dématérialisation, par exemple, est des sujets qui sont très lents à mettre en œuvre, malgré une forte maturité technologique. Cela fait des dizaines et des dizaines d’années que des informaticiens travaillent sur ces sujets-là. Pourtant, j’ai organisé une présentation récemment pour mon master avec un des patrons de TESSI, une entreprise spécialisée, et les principaux freins à la dématérialisation ont ressurgi : des freins humains et psychologiques et des freins dus à la conduite du changement ou plutôt à la non conduite du changement. Prenons l’exemple d’un métier comme celui de la comptabilité. Mon père a réalisé l’automatisation de cette fonction dans son environnement industriel où il travaillait dans les années 80. Ce n’est pas de l’intelligence artificielle mais c’était déjà un grand progrès d’un point de vue organisationnel et informatique. Mais qu’ont fait les les comptables de son entreprise ? ils ont organisé une fête et ils l’ont remercié pour avoir supprimé leur travail et ils se sont dépêchés de tuer ce système informatique. Bien entendu ils n’ont pas changé leur travail et surtout ils ont continué à faire de la saisie pendant 20 ou 30 ans parce que c’était ce qui leur convenait, même si l’automatisation leur aurait permis de mettre plus d’intelligence dans leur fonction et de rendre leur métier plus intéressant.

De la même manière, si l’on parle de la dématérialisation d’un point de vue beaucoup plus large, sans même aller invoquer l’intelligence artificielle, on en est encore à quelques années du changement, même si des plans gouvernementaux existent qui cherchent à favoriser la dématérialisation les factures. Le temps qu’il faudra avant d’effacer les différences entre tous les ERP et d’avoir défini toutes les normes est loin d’être nul.

Il y a pourtant des domaines sur lesquels on a beaucoup avancé ces derniers temps grâce à l’intelligence artificielle. Prenons un exemple que vous connaissez forcément, Google Translate. Voilà bien un domaine où j’ai été bluffé par les avancées de la technologie. Je me suis vraiment bien trompé dans mes analyses. J’ai fait beaucoup de traduction quand j’étais plus jeune et j’en fais encore beaucoup, et je m’étais dit s’il y a une chose que les ordinateurs ne feront jamais bien, c’est la traduction, parce que le traducteur est aussi un « interprète ». Ce n’est pas un travail mécanique, de remplacement d’un mot par un mot, il implique une façon de penser avec une double culture et des références. C’est surtout une œuvre de transposition d’une langue dans une autre et en général, quand la traduction est bonne, on réécrit l’intégralité du texte en plusieurs étapes — 3 en général — avec plus ou moins de célérité selon l’habitude qu’on a de ce type de travail. Au début des traducteurs automatiques sur Internet les outils offerts traduisaient du mot à mot et on était en plein faux sens.

Essayez-le aujourd’hui et vous verrez qu’avec l’intelligence artificielle et le deep-learning, c’est assez bluffant : j’ai utilisé cet outil comme premier jet de traduction sur un texte que j’avais déjà traduit manuellement et je dois avouer que la machine avait fait un premier jet qui était plutôt meilleur que le mien et surtout, elle l’a fait bien plus vite. Il s’agissait d’un texte technique (juridique) donc sur un vocabulaire limité, plus facile à maîtriser par une machine qui a reçu les instructions que par un homme non entraîné. C’est un bon exemple de système expert, essentiellement à base de statistiques, mais qui va aller chercher dans les bases de connaissance de tous les utilisateurs pour améliorer son moteur de traduction.

Yann, au-delà de cet exemple, peut-on parler de l’intelligence artificielle dans le domaine des ressources humaines et du recrutement ?

Dans le domaine des RH, il faut distinguer plusieurs sous-domaines : les ressources humaines et le recrutement, et dans le recrutement lui-même il faut encore distinguer plusieurs choses. Il y a le recrutements de profils établis, de profils-types où on peut aisément imaginer que l’intelligence artificielle et digital en général permettent la reconnaissance de modèles (« pattern recognition ») ce qui va permettre de poser les bases. Ou encore des outils qui vont permettre à des « growth hackers » d’aller « gratter des informations » (on parle de « scraping » en anglais) de manière plus ou moins légale, notamment sur les réseaux sociaux comme LinkedIn. Mais voilà, je me souviens des cours de Daniel Porot où j’ai appris que 80% du marché est un marché caché (80% étant un chiffre à ne pas prendre au premier degré). Les réseaux sociaux sont un outil et dans ce cas du marché caché, rien ne remplacera le travail humain et le perfectionnement de votre réseau professionnel. Il est vrai que si on les utilise déjà comme un robot, à ce moment-là on peut imaginer que vos actions puissent être remplacées par une machine, mais ce n’est pas vraiment le but de l’exercice.

J’ai eu une étude à faire avec des marketeurs il y a quelques semaines, pour un de mes clients. Nous avons contacté un tout petit peu plus de 350 personnes directement par LinkedIn et nous avons eu 323 réponses. La force du réseau est imbattable et nous avons pris le temps de contacter les répondants potentiels un par un, en personnalisant les approches.

Vous avez utilisé le bon sens naturel et non l’intelligence artificielle

Absolument, nous avons écrit des choses qui parlaient personnellement à chaque personne, nous avons été humain, c’est tout. C’est très simple.

C’est justement là qu’on touche à un sujet d’avenir : l’humain, ce qui devrait parler à des gens en charge des relations du même nom. J’avais un patron en Angleterre qui appelait la RH « Human Remains » (les « restes humains » en français). Ce n’était pas très charitable, et sans doute un peu exagéré aussi, mais il y avait un fond de vérité : ceux-ci ne se comportaient pas de manière empathique ni humaine, évitaient d’écouter les managers et ne travaillaient pas vraiment dans l’intérêt général. Ils restaient très bureaucratiques et sans doute — d’après ce que j’entends ci et là — que ce n’est pas un cas isolé ni purement britannique. Ils exécutaient juste leur travail de manière mécanique sans trop chercher à apporter une valeur ajoutée et c’est cela qui est dommage.

C’est là une piste : si les fonctions RH ont pour raison d’être d’apporter une véritable valeur ajoutée sur la mise en relation et le networking, la découverte et la mise en avant de nouveaux talents, alors elles n’ont rien à craindre de l’automatisation de leurs tâches. Si elles voient au contraire leurs métiers comme celui de juste faire correspondre des profils à des CV, alors sans doute qu’une machine saura réaliser une tâche aussi répétitive au moins aussi bien et sans doute plus rapidement.

J’ai lu des articles qui nous expliquent que l’avenir c’est le « realistic job preview », en fait c’est quand vous avez un entretien, donner une vision entre « artificielle » de la réalité du terrain d’entreprise.

C’est une expérience du job au même titre de ce qu’on décrit comme « expérience client » dans le commerce 

Oui, et là j’ai un petit doute quand même, parce que l’expérience on l’obtient en parlant avec des gens, en allant sur le terrain, en voyant l’ambiance, ça se sent.

Ce sont des signaux faibles et c’est 75 à 80% de la communication d’ailleurs

Et pour les jobs du marketing ? J’ai des clients qui sont des professionnels, parfois des directeurs, du marketing, qui sont spécialisés et qui ont parfois travaillé pour des agences… C’est un métier qui a été complètement révolutionné je dirais ces dix dernières années il ressemble absolument plus rien à ce qu’on faisait en début de carrière

Oui, il y a encore quelques marketeurs qui résistent mais beaucoup font du marketing digital, et il y a encore une bonne marge de progression. Je ne pense pas que je vais être remplacé par un ordinateur car l’essentiel de notre métier c’est de parler à des gens et de les positionner. Nous faisons beaucoup de « content marketing » (ou marketing de contenu). Certes, sur ces marchés il y a des robots qui écrivent, mais les hommes écrivent beaucoup mieux.

Il y a aussi beaucoup de robots qui tweetent…

Il y en a plein en effet ça n’a pas une grande valeur. On touche à un autre sujet qui est celui de la fraude à la publicité : selon Forrester c’est à peu près 30% des clics, je leur laisse la responsabilité de ce chiffre.

Donc vous nous dites que l’intelligence artificielle va être une façon de travailler différemment et en aucun cas un énorme danger ?

Je pense sincèrement qu’il ne faut pas en avoir peur. Rappelons d’ailleurs que selon la sagesse populaire, celle-ci n’évite pas le danger. Il faut simplement savoir raison garder et regarder l’avenir positivement et chercher sa propre valeur ajoutée.

Intelligence artificielle : définition, impact, mythes et réalité was last modified: juin 25th, 2018 by Yann Gourvennec
Yann Gourvennec
suivez moi !

Yann Gourvennec

PDG & fondateur chez Visionary Marketing
Yann Gourvennec a créé le site visionarymarketing.com en 1996. Il est intervenant et auteur de 4 ouvrages édités chez Kawa. En 2014 il est devenu entrepreneur, en créant son agence de marketing digital Visionary Marketing, en association avec Effiliation. Il est directeur de programme du Mastère Spécialisé Digital Business Strategy de Grenoble Ecole de Management depuis 2015
Yann Gourvennec
suivez moi !

Votre avis nous intéresse :

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.