Peut-on vraiment moraliser l'usage de l'intelligence artificielle ?
En novembre dernier, Yoshua Bengio, directeur de l’Institut des algorithmes d’apprentissage de Montréal, a lancé, avec une équipe pluridisciplinaire (composée de spécialistes en éthique, philosophie, informatique, psychologie, droit, etc.), le projet de Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (IA), invitant la population à participer à la rédaction des balises éthiques qui encadreraient ce développement. La date limite pour leur remettre des recommandations est le 31 mars. Si l’initiative est judicieuse – car grandes sont les inquiétudes que soulève toute cette recherche sur l’IA, en même temps qu’elle ouvre des pistes d’innovation prometteuses –, il n’en reste pas moins que l’approche éthique proposée, centrée principalement sur la gestion des risques, affaiblit grandement sa portée réelle.
Yoshua Bengio et son équipe sont conscients des menaces suscitées par le développement de l’IA : le raffinement et le renforcement du dispositif de contrôle des individus, de normalisation des comportements et de manipulation de l’information, l’utilisation de robots-tueurs, etc. Ils proposent de faire face à ces risques et abus potentiels, mais aussi aux conséquences sociales et aux enjeux éthiques liés à usage de l’IA, en établissant des principes généraux servant de balises à la recherche et pouvant inspirer la législation. Toutefois, aussi souhaitable soit-elle, cette démarche risquerait, si on en restait là, de n’être qu’un exercice cosmétique servant à « rassurer » l’opinion publique, sans guère gêner l’emprise grandissante sur nos vies de l’idéologie techniciste qui préside actuellement au développement de l’IA, en tout point adaptée aux intérêts des oligarchies techno-financières de la Silicon Valley et de Wall Street. Or, c’est par là que se normalisent une conception de la vie et de l’être humain, une manière de vivre et un rapport au monde dangereusement réducteurs, entraînant de graves conséquences sociales et écologiques et une profonde rupture anthropologique.
C’est ce qu’essayait de montrer Marie-Claude Goulet, médecin et professeure à la Faculté de médecine de l’Université de Montréal, dans un article intitulé « Les menaces technicistes de l’intelligence artificielle » (Le Devoir, 25 novembre 2017) en s’appuyant sur les travaux du philosophe et clinicien franco-argentin Miguel Benasayag, notamment son ouvrage Cerveau augmenté, homme diminué (La Découverte, 2016). Elle mettait ainsi en garde, entre autres, contre le processus de colonisation de la vie par la technologie qui est en cours actuellement, qui tend à mettre l’humain au service de la technologie et à consacrer le « triomphe d’un physicalisme réductionniste où les comportements de l’être humain sont analysés comme une série mécanique de mouvements surdéterminés par des lois physiques et chimiques ».
Yoshua Bengio, nommé plusieurs fois dans l’article ainsi que l’institut qu’il dirige, publiait aussitôt une réponse : « La communauté de l’intelligence artificielle a bien fait ses devoirs » (Le Devoir, 2 décembre 2017). Or, celle-ci laisse perplexe, tant elle révèle le peu d’intérêt qu’il porte à cette critique : il n’y a que de bonnes et de mauvaises pratiques, et le projet de Déclaration de Montréal est là pour les baliser adéquatement.
Le philosophe Marc-Antoine Dilhac, membre de l’équipe pluridisciplinaire, allait dans le même sens lors du lancement du projet de Déclaration : les scénarios catastrophiques rattachés à l’IA ne concernent pas tant les machines intelligentes que l’usage qu’on en fait, semblait-il dire. Étrange constat quand plusieurs concepteurs de Facebook, par exemple, exprimaient récemment leur profond regret d’avoir contribué à créer « des outils qui détruisent le tissu social », selon les mots de Chamath Palihapitiya. Que le projet de Déclaration de Montréal ne se soucie pas de cette réalité est pour le moins une lacune. Un élément qui devrait allumer un voyant rouge à cet égard est l’enthousiasme manifesté par Nick Bostrom pour cette initiative, lui qui est le chef de file du mouvement transhumaniste, promouvant l’humain augmenté et amélioré – et ultimement le cyborg –, et fantasmant sur l’immortalité (voir « Le corps obsolète ? L’idéologie transhumaniste en question », Relations, no 792, octobre 2017).
Cette menace techniciste, si nous la prenons au sérieux, invite à l’extrême prudence et, surtout, à une réflexion collective sur les enjeux anthropologiques et sociétaux sous-jacents, d’autant plus urgente que l’industrie multimilliardaire de l’IA pousse dans le sens d’une accélération des innovations et de notre adaptation à celles-ci, comme s’il s’agissait d’une fatalité. Un premier geste symbolique pour orienter pleinement l’IA au service du vivant serait de cesser de la comparer à l’intelligence humaine, irréductible à une logique computationnelle, comparaison qui ne sert qu’à poser la soi-disant supériorité de l’IA et à intérioriser, du même coup, la réduction de l’humain et de la vie à la technique, pour le plus grand bonheur d’une oligarchie qui y trouve son profit.
Jean-Claude Ravet
La revue Relations no 795.
Voir le site de la Déclaration de Montréal