Intelligence artificielle : progrès ou danger ? [Tribune Libre]

L’article du jour est une tribune libre proposée par Claire Hy Outin. Ce billet a pour objet l’intelligence artificielle. Si cette discipline n’est pas nouvelle, elle connaît cependant un renouveau, qui n’est pas sans susciter quelques peurs ici et là. Un phénomène qui, somme toute, n’est pas nouveau.

intelligence artificielle Player PianoDans Player Piano, Kurt Vonnegut, le célèbre auteur américain de fausse science fiction (mais de vrais romans philosophiques) qui est maintenant bien connu de nos lecteurs pour avoir été cité plusieurs fois dans ces pages, avait ouvert le bal des oiseaux de mauvais augure en décrivant un monde apocalyptique, où les humains sont dévalorisés car ils ont perdu leur travail au profit des machines, désormais capables d’effectuer les tâches qui leur étaient autrefois réservées.

the lift - intelligence artificielleLa dystopie de l’auteur américain date de 1952 et n’est sans doute pas la première tentative d’avertir l’homme des dangers générés par ses propres créations. En cela, Mary Shelley avait sans doute ouvert le bal dans la période romantique (1818). Depuis, le sujet est récurrent, et je me souviens notamment d’un film d’horreur et d’anticipation hollandais de 1983 (The Lift), qui décrivait un ascenseur qui, équipé d’un circuit intelligent à base de neurones humains, prenait son autonomie et finissait par se retourner contre les humains. Le débat est bien là, la machine est créée par l’homme et ne doit pas pouvoir dépasser son maître, c’est même le sujet des lois de la cybernétique créées par Isaac Asimov : 

[Wikipedia] Les trois lois d’Asimov sont 9 :

  • Première Loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. » ;
  • Deuxième Loi : « Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. » ;
  • Troisième Loi : « Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi. »

Mais si ce débat philosophique ne date pas d’hier, il faut bien avouer que les premières tentatives de l’intelligence artificielle, jusque dans les années 90, étaient bien risibles, et les ordinateurs bien faibles, comparés aux humains. Ce n’est plus le cas et des personnes éminentes s’en préoccupent désormais, comme Stephen Hawking et Elon Musk ; le grand savant anglais allant même jusqu’à prédire la fin de l’espèce humaine. Voyez par exemple ces démonstrations de Gepetto Avatars, une firme spécialisée dans le diagnostic médical et dites moi ce que vous penseriez si l’avatar du docteur était remplacé par une modélisation 3D réaliste, donnant l’apparence d’un humain ?

Voici donc l’analyse de Claire, bonne lecture et bon week-end

Aujourd’hui l’intelligence artificielle est partout. De l’électroménager avec Roomba, au pilotage automatique des avions de ligne, sans oublier la chirurgie assistée par ordinateur. Chaque jour, d’une manière ou d’une autre, l’humanité bénéficie des progrès apportés par l’intelligence artificielle. Mais demain, que nous apportera-t-elle ? Jusqu’où peut-on aller ? Existe-t-il des dangers ? Peut-on les éviter ? Focus sur un sujet hautement sensible.

La question du contrôle

A la base, un robot ou une machine ne font qu’obéir aux ordres qu’on leur donne : peindre la carcasse d’une voiture chez les constructeurs automobile, passer l’aspirateur chez les particuliers… Le problème survient si une machine est programmée avec l’intention de nuire. Dans ce cas, tous les scénarios sont possibles. Prenons l’exemple des voitures connectées et du système de freinage. L’armée américaine a récemment apporté la preuve qu’il était possible de prendre le contrôle d’un véhicule connecté, et notamment de son système de freinage.

Autre exemple : des terroristes pourraient hacker le système de pilotage automatique d’avions de ligne et générer des catastrophes. C’est d’ailleurs une des hypothèses étudiées, pour expliquer la disparition du vol MH 370.

Pour éviter ces dérives, il apparaît capital de mettre en place des garde-fous, mais reste à savoir comment.

Avions de chasse
L’intelligence artificielle est également présente à bord des avions. Or, l’informatique sans bug n’existe pas…

Et le bug ?

L’informatique sans bug, ça n’existe pas. Mais si on reprend le thème de la voiture connectée, le bug ne pardonne pas.

Autre exemple : les personnes en perte d’autonomie. L’intelligence artificielle via les robots est très attendue dans ce domaine, mais là encore, le bug ne peut pas être toléré.

Il faut donc que l’homme arrive à envisager tous les scénarios pour qu’une machine puisse mener à bien sa mission sans bug… Mais comment faire pour créer un système sans faille ?

L’impact social et économique

De nombreuses tâches répétitives sont aujourd’hui accomplies par des robots, mais il est clairement établi que demain, des travaux plus complexes pourront être réalisés par des machines. C’est ainsi que le Cabinet Gartner prévoit qu’en 2025, un tiers des emplois seront remplacés par des robots.

Peter Sondergaard, directeur de recherche chez Gartner, estime en effet que « les machines donneront un sens aux données plus rapidement que les humains le peuvent ». Il est donc envisageable que d’ici à 10 ans, l’intelligence artificielle génère du chômage…

Et les GAFA dans tout ça ?

Google, Apple, Facebook et Amazon investissent massivement dans l’intelligence artificielle. Google est d’ailleurs le plus en pointe sur le sujet. Et cela inquiète, à tel point que des éminences grises tirent la sonnette d’alarme. Ainsi, le Docteur Alexandre Laurent a récemment animé une conférence en indiquant que les instruments destinés à manipuler le cerveau sont entre les mains des GAFA. Pire : pour lui, « le vrai territoire de Google , ce n’est pas un pays, c’est notre cerveau».

De son côté, Joël de Rosnay estime que «Les grands du numérique […]sont des entreprises Etats, nous sommes des Etats nations. Ils ont un tel pouvoir, une telle puissance et bien sûr ils s’intéressent à l’intelligence artificielle. Il va falloir que nous trouvions les moyens de co-régulation citoyenne, les moyens de nous opposer ou de réguler le pouvoir incroyable de ces grands du numérique ».

Quelles solutions ?

Face à toutes ces menaces qu’on ne peut ignorer, 700 chercheurs et entrepreneurs – parmi lesquels Stephen Hawking et Elon Musk (fondateur de SpaceX et Tesla Motors) – ont diffusé le 10 janvier dernier une lettre ouverte, destinée à alerter sur les dangers de l’intelligence artificielle. Dans cette lettre, ils appellent la communauté scientifique à réfléchir à la mise en place de garde-fous éthiques et légaux, en proposant quelques pistes.

Reste à espérer que cet appel sera entendu et que rapidement, des groupes de travail internationaux se mettront en place, pour contrôler et réguler l’intelligence artificielle, comme le font déjà à l’échelon national, chacun dans leur domaine, le Comité Consultatif National d’Ethique ou la CNIL.

 

Intelligence artificielle : progrès ou danger ? [Tribune Libre] was last modified: mars 13th, 2015 by Yann Gourvennec
Yann Gourvennec
suivez moi !

Yann Gourvennec

PDG & fondateur chez Visionary Marketing
Yann Gourvennec a créé le site visionarymarketing.com en 1996. Il est intervenant et auteur de 4 ouvrages édités chez Kawa. En 2014 il est devenu entrepreneur, en créant son agence de marketing digital Visionary Marketing, en association avec Effiliation. Il est directeur de programme du Mastère Spécialisé Digital Business Strategy de Grenoble Ecole de Management depuis 2015
Yann Gourvennec
suivez moi !

2 réflexions sur “ Intelligence artificielle : progrès ou danger ? [Tribune Libre] ”

Votre avis nous intéresse :