L’intelligence artificielle : une législation impossible ?

Le 18 mars dernier à Tempe en Arizona, une voiture autonome de la société Uber a percuté mortellement un piéton. Uber et les autorités ont confirmé que la voiture était en mode « conduite autonome ». Cette technologie étant en phase de test, un conducteur de secours était à bord, censé garder le contrôle du véhicule en permanence. Les autorités ont donc annoncé mener l’enquête comme si un véhicule normal était en cause, déresponsabilisant Uber et toutes les sociétés à l’initiative du véhicule. Cette gestion juridique du problème reste courtermiste ; General Motors a récemment demandé l’autorisation aux autorités américaines de tester une voiture sans volant ni pédales. Concernant le cas de Tempe, sur la vidéo de l’accident fournie par la police, on peut voir la conductrice distraite par son smartphone lors de l’impact.

l'intelligence artificielle
Comment l’intelligence artificielle peut-elle être réglementée ?

D’autant que l’IA ne se résume pas à la voiture autonome. Selon Laurent Alexandre, chirurgien et cofondateur de Doctissimo, « l’intelligence artificielle regroupe tous les programmes informatiques qui rivalisent avec le cerveau humain ». Elle détermine notre capacité à organiser les connaissances, à leur donner un sens, à augmenter nos facultés de prise de décision et de contrôle des systèmes. Le secteur des services est donc particulièrement concerné par cette transformation numérique. Un site de crédit, par exemple, va évaluer un profil pour lui accorder ou non un prêt, un site de recrutement va filtrer les profils pour leur attribuer des offres d’interview ou un salaire moyen. L’éducation de l’IA consiste donc dans le cas du site de crédit à indiquer au programme un salaire en deçà duquel le prêt ne sera pas accordé. Pour le site de recrutement, les critères seront plus vagues. L’éducation de l’IA sera plus complexe, le programme apprendra par lui-même en étudiant des exemples. On appelle cette méthode Deep Learning ou Machine Learning.

Comment contrôler ces programmes et s’assurer de leur éthique ?

Concernant le programme de notre site de recrutement, il est en effet difficile d’identifier une discrimination. Contrairement au site de crédit, il est impossible de comprendre le cheminement de la décision. L’interview a t-il été refusé par un manque d’expérience ou parce que c’est une femme ? Le principal risque du Machine Learning est de donner de mauvais exemples au programme, qui risque tout simplement de reproduire les discriminations humaines. Le meilleur exemple de cette déviance est sans doute Tay, un bot lancé par Microsoft en 2016 sur tweeter, devenu raciste et antisémite en moins de 24 heures. Il a en effet tweeté : « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir ». Huit heures après son lancement, Tay a été mis hors ligne. Cette expérience a parfaitement mis en avant les faiblesses du Machine Learning.

Concernant les programmes de service, il devrait donc être possible d’ouvrir les « boites noires » pour s’assurer de leur éthique. Néanmoins, les entreprises à l’origine de ces programmes ont investi des sommes conséquentes dans leurs élaborations et sont nécessairement réticentes à les rendre publiques. Elles sont d’ailleurs juridiquement protégées par la propriété intellectuelle et le secret des affaires. Il est très dur à l’heure actuelle de différentier les sphères du secret de l’information légitime.

l'intelligence artificielle

Ce jeudi 24 mars 2018, le mathématicien et député LREM Cédric Villani a publié un rapport intitulé « Donner un sens à l’intelligence artificielle » dans lequel il tente de définir le rôle de l’état dans cet écosystème naissant. L’objectif de ce rapport est de donner un cap, une signification et des explications.

Villani propose, pour tester l’équité d’un programme, de le soumettre à de fausses données d’entrées. Pour notre site de recrutement, il faudrait pouvoir lui soumettre de très nombreux CV, de femmes et d’hommes au même parcours professionnel, et observer les résultats. Ainsi, nous pourrions constater (ou non) les différences de traitement concernant les demandes d’interview ou les salaires moyens proposés en fonction du sexe.

 

Comment palier le vide juridique en matière d’intelligence artificielle ?

En 2016, a été promulguée la loi pour une république numérique qui prépare la France aux différents enjeux de la transition numérique. Elle a pour objectif de donner une longueur d’avance à la France en favorisant une politique d’ouverture des données et des connaissances. En mai 2018, le Règlement Européen sur la Protection des Données (RGPD) viendra la compléter en promouvant le droit à l’autodétermination informationnelle. En théorie, il s’agit pour tout à chacun d’être maître des informations qui le concerne. Tenter de protéger les données, c’est à peu près tout ce que la loi peut faire pour défendre les individus face à des acteurs du numérique malveillants. Cependant, l’efficacité de ces dispositifs a été récemment démontée par le scandale Cambridge Analytica, société de communication stratégique, qui a vendu les données de 87 millions de comptes Facebook à l’insu de leurs propriétaires. La loi est donc démunie, le droit étant par définition en retard sur la technologie puisque pensé une fois le fait accompli.

Dans son rapport, Cédric Villani écrit qu’ « il est essentiel que [les chercheurs, ingénieurs et entrepreneurs qui contribuent à la conception et au développement de système IA] agissent de manière responsable, en prenant en considération les impacts socio-économiques de leurs activités. » Pour ce faire, il est nécessaire que les écoles d’ingénieurs et les parcours informatiques des universités adaptent leurs programmes en sensibilisant les élèves, dès le début de leur formation, aux enjeux éthiques liés au développement de cette technologie. Aujourd’hui, cet enseignement est inversement proportionnel à l’accroissement des problématiques éthiques auquel ils seront confrontés, au vu du rythme des avancées de l’IA.

Même si cet enseignement éthique n’apportera pas de réponse immédiate, il permettra de déclencher un cercle vertueux dans ce secteur. En outre, les consommateurs étant toujours de plus en plus attachés à la transparence, que ce soit dans le secteur alimentaire ou celui du traitement de leurs données personnelles, il est cohérent économiquement de développer des technologies plus responsables.

L’intelligence artificielle : une législation impossible ? was last modified: avril 11th, 2018 by Ernest Margerie
Ernest Margerie

Ernest Margerie

Ernest est consultant junior en Web Marketing chez visionary marketing. Egalement en alternance à PSB en master digital business.
Ernest Margerie

Votre avis nous intéresse :

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.