« Il ne faut pas avoir peur de l’inconnu que représente l’intelligence artificielle. C’est un formidable environnement de créativité et de progrès », explique d’emblée Catherine Balagué, professeure à l’IMT et titulaire de la chaire réseaux sociaux et objets connectés chez Mines Telecom. Quelles sont les deux craintes souvent énoncées ? D’une part, les professionnels de santé seraient à terme remplacés dans leur pratique médicale. D’autre part, dans la même veine que le transhumanisme, l’Homme verrait un jour sa vie prolongée bien au-delà de l’âge de 100 ans ou une partie de son corps défaillante serait remplacée par une technologie.
Une vision européenne de l’intelligence artificielle
Culturellement, la vision européenne de l’intelligence artificielle par son éthique est très spécifique, car radicalement différente des conceptions américaine ou asiatique. Si l’on remonte dans le temps, l’intelligence artificielle via les big data existe déjà depuis une trentaine d’années et repose sur l’Internet. La seule différence entre le monde d’aujourd’hui et celui d’avant-hier réside dans la masse gigantesque de données existantes et la puissance phénoménale des machines.
Manque de transparence
Le danger ne viendrait pas, selon Christine Balagué, de la donnée, mais du traitement réalisé par les algorithmes. Ces derniers se définissent par l’entrée de la donnée, le traitement de cette dernière et sa finalité. Or, le problème majeur est la question de leur transparence. Ainsi, si les données traitées sont biaisées, l’algorithme le sera tout autant. Si elles sont discriminantes, le résultat du programme le sera aussi. Autre souci, certains algorithmes comme le deep learning qui utilisent de très nombreuses couches de logiciels, sont de plus en plus complexes, et donc opaques. En conséquence, un patient qui reçoit le résultat d’un algorithme ne sait pas réellement comment ce dernier fonctionne.
Loi du 7 octobre 2016
Pour remédier à cette opacité, les pouvoirs publics français ont imposé la transparence sur tous les algorithmes publics via la loi du 7 octobre 2016 pour une République numérique. Une autre partie de cette loi oblige les entreprises qui fabriquent des plateformes à développer des traitements qui contiennent une loyauté vis-à-vis de l’individu. Ce concept défend la nécessité pour un algorithme de ne faire que ce qu’il est censé faire, et de le faire bien.
Suite à la loi, un rapport publié par Bercy incite la recherche à développer des technologies qui rendront leurs algorithmes plus transparents. Catherine Balagué envisage même la création d’une agence de notation des entreprises qui les noteront et les évalueront. A bon entendeur.
* « L’intelligence artificielle et le système de soins : nouvelle lubie ou bouleversements majeurs en perspective ? » organisée par la Fédération hospitalière de France lors de ses universités d’été le 6 septembre dernier.
Dr Joëlle Belaïsch-Allart : « S’il faut respecter le non-désir d’enfant, le renoncement à la parentalité doit interpeller »
Visite médicale d’aptitude à la conduite : le permis à vie de nouveau sur la sellette
Le dispositif Mon soutien psy peine à convaincre, la Cnam relance l’offensive com’
Ouverture du procès d’un ancien psychiatre de l’AP-HM jugé pour viols et agressions sexuelles sur quatre patientes