L’intelligence artificielle : une législation impossible ?

Le 18 mars dernier à Tempe en Arizona, une voiture autonome de la société Uber a percuté mortellement un piéton. Uber et les autorités ont confirmé que la voiture était en mode « conduite autonome ». Cette technologie étant en phase de test, un conducteur de secours était à bord, censé garder le contrôle du véhicule en permanence. Les autorités ont donc annoncé mener l’enquête comme si un véhicule normal était en cause, déresponsabilisant Uber et toutes les sociétés à l’initiative du véhicule. Cette gestion juridique du problème reste courtermiste ; General Motors a récemment demandé l’autorisation aux autorités américaines de tester une voiture sans volant ni pédales. Concernant le cas de Tempe, sur la vidéo de l’accident fournie par la police, on peut voir la conductrice distraite par son smartphone lors de l’impact.

l'intelligence artificielle
Comment l’intelligence artificielle peut-elle être réglementée ?

D’autant que l’IA ne se résume pas à la voiture autonome. Selon Laurent Alexandre, chirurgien et cofondateur de Doctissimo, « l’intelligence artificielle regroupe tous les programmes informatiques qui rivalisent avec le cerveau humain ». Elle détermine notre capacité à organiser les connaissances, à leur donner un sens, à augmenter nos facultés de prise de décision et de contrôle des systèmes. Le secteur des services est donc particulièrement concerné par cette transformation numérique. Un site de crédit, par exemple, va évaluer un profil pour lui accorder ou non un prêt, un site de recrutement va filtrer les profils pour leur attribuer des offres d’interview ou un salaire moyen. L’éducation de l’IA consiste donc dans le cas du site de crédit à indiquer au programme un salaire en deçà duquel le prêt ne sera pas accordé. Pour le site de recrutement, les critères seront plus vagues. L’éducation de l’IA sera plus complexe, le programme apprendra par lui-même en étudiant des exemples. On appelle cette méthode Deep Learning ou Machine Learning.

Comment contrôler ces programmes et s’assurer de leur éthique ?

Concernant le programme de notre site de recrutement, il est en effet difficile d’identifier une discrimination. Contrairement au site de crédit, il est impossible de comprendre le cheminement de la décision. L’interview a t-il été refusé par un manque d’expérience ou parce que c’est une femme ? Le principal risque du Machine Learning est de donner de mauvais exemples au programme, qui risque tout simplement de reproduire les discriminations humaines. Le meilleur exemple de cette déviance est sans doute Tay, un bot lancé par Microsoft en 2016 sur tweeter, devenu raciste et antisémite en moins de 24 heures. Il a en effet tweeté : « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir ». Huit heures après son lancement, Tay a été mis hors ligne. Cette expérience a parfaitement mis en avant les faiblesses du Machine Learning.

Concernant les programmes de service, il devrait donc être possible d’ouvrir les « boites noires » pour s’assurer de leur éthique. Néanmoins, les entreprises à l’origine de ces programmes ont investi des sommes conséquentes dans leurs élaborations et sont nécessairement réticentes à les rendre publiques. Elles sont d’ailleurs juridiquement protégées par la propriété intellectuelle et le secret des affaires. Il est très dur à l’heure actuelle de différentier les sphères du secret de l’information légitime.

Lire la suite

L’intelligence artificielle : une législation impossible ? was last modified: avril 11th, 2018 by Ernest Margerie