Le Président Macron vient d’annoncer une ouverture de crédit de 1,5 milliard d’euros d’ici 2021 dédiés à l’intelligence artificielle (IA)1 afin que la France puisse devenir leader dans ce domaine. Dans le même temps s’amorce Alicem (authentification en ligne certifiée sur mobile), un projet de reconnaissance faciale appelé à devenir une preuve d’identité pour les démarches administratives. Avec cette innovation la France serait le premier pays européen à utiliser cette technologie2. Réaction de Christine Dugoin-Clément, analyste pour le think tank CapeEurope et chercheur à l’Université Paris 1 Panthéon-Sorbonne.
Cette technologie est déjà utilisée dans d’autres pays parmi lesquels la Chine3 qui, briguant le titre de leader mondial de l’IA, consacrera 22,15 milliards de dollars à ce projet à l’horizon 2020 et 59,07 milliards de dollars d’ici 20254, ou la Russie, certes bien plus modeste dans ses investissements5. Si on peut légitimement s’interroger quant à la possibilité réelle pour que la France devienne leader dans ce domaine à concurrence forte, où d’autres pays et plusieurs entreprises privées se sont déjà lancés avec d’autant plus de facilité qu’ils n’ont pas toujours les mêmes préoccupations, voire parfois les dilemmes, éthiques de la France, un autre volet s’impose quand on évoque cette technologie. En effet, cette annonce engendre une vague de protestations, de manifestations d’angoisses, s’agissant, notamment, particulièrement des libertés individuelles que l’opinion publique craint, légitimement, de voir menacées, notamment après avoir observé l’utilisation faite par la Chine de la reconnaissance faciale et aux tentatives de protestations67. Le sujet de la protection des libertés individuelle, mis en lumière par les compréhensibles angoisses exprimées par la société civile, soulève une question de fond quant à l’impact sociétal de cette technologie et à son usage éthique.
L’IA, entre avancée et menace des libertés humaines ?
Si le débat s’attache tout particulièrement à la reconnaissance faciale que la France veut développer, alors que certaines villes américaines comme San Francisco et Oakland viennent de la bannir8, le débat pourrait s’étendre à l’utilisation plus large de l’IA dans le quotidien de chacun. En effet, ce qui rend la reconnaissance faciale si efficace, et donc si problématique et sulfureuse pour ses détracteurs, c’est la précision que permet le développement de machines apprenantes, ou Machine Learning (ML), précision qui a résolu nombre de problèmes liés à la reconnaissance des objets et, par construction, des visages. Dans les faits la reconnaissance faciale consiste dans la reconnaissance de modèles précis, ici les traits des individus, grâce à la mobilisation d’un grand nombre de données accessibles sur Internet de manière plus ou moins légale, alors que ces mêmes données n’y ont pas toujours été déposées en pleine connaissance de cause. En effet, ces « datas » (données) sont largement « offertes » à nombre d’acteurs privés par les utilisateurs et leurs proches : par exemple, « tagger » des amis sur les publications de réseaux sociaux permet de les reconnaitre, ou encore en utilisant la reconnaissance faciale pour débloquer son smartphone.
Il y a là, un paradoxe : est perçue comme une potentielle menace l’utilisation abusive, en termes de surveillance, que l’Etat pourrait faire des données permettant la reconnaissance faciale alors que l’utilisation qui pourrait tout autant en être faite par des sociétés privées au profit d’intérêts souvent commerciaux semble susciter une moindre défiance.
Cette approche interpelle car les élus de la République sont issus d’un scrutin démocratique et que l’action de l’Etat français s’inscrit dans un cadre constitutionnel. Certains internautes en sont conscients : en témoigne l’émergence de mouvements artistiques utilisant la mode pour tromper les systèmes de reconnaissance9. Il reste que beaucoup ne semblent pas avoir pris la pleine mesure des enjeux.
L’une des origines de ce paradoxe pourrait être la perception du public : utiliser son visage pour débloquer son téléphone peut non seulement paraitre ludique, mais procure également un sentiment trompeur d’utilisation maîtrisée, de plus grand confort personnel. Dans le cas de l’Etat, qui peut parfois être coercitif dans l’exercice de ses missions régaliennes, la crainte d’une utilisation potentiellement abusive au regard des libertés individuelles ou du respect de la vie privée apparait immédiatement. Cette crainte n’est pas sans fondement et son bien-fondé varie selon le régime de l’Etat de résidence, notamment si l’on considère que la source principale de revenus des structures développant de la reconnaissance faciale provient de systèmes de surveillance et de sécurité10.
Au-delà de la surveillance, l’enjeu du libre arbitre
Il y a là une problématique de fond non seulement dans l’usage qui peut être fait de ces données, mais également dans la perception de cet usage. Au-delà de la question de la reconnaissance faciale, cette problématique pourrait s’étendre à d’autres données, médicales, orientation politique, religieuse….
En effet, dans le cas d’une utilisation non réglementée, c’est le libre arbitre de l’individu qui pourrait alors être menacé.
Si on se réfère au « nudge », concept développé en économie qui désigne ainsi une impulsion, une « poussée du coude » destinée à modifier le comportement d’un consommateur en orientant discrètement ses choix. Issu de l’économie comportementale cette théorie, développée en 2008 (« Nudge : améliorer les décisions concernant la santé, la richesse et le bonheur » de Thaler et Cass Sunstein), a reçu un prix Nobel en 201711. Appliquée au sujet de l’IA nourrie par des ML, on peut alors se demander à quoi se résumerait la capacité de choix des individus, si les systèmes disposaient d’assez de données pour pouvoir définir des modèles comportementaux et donc des architectures d’influences discrètes, non coercitives. En effet, si nombre d’internautes sont ravis que Netflix leur soumette des propositions de programmes construites sur leurs choix précédents, peut-être préféreraient-ils garder la main sur leurs choix politiques. Ils souhaiteraient probablement que des tiers ne disposent pas de clefs pour qu’ils influencent leur choix. C’est en tout cas ce que la réaction de l’opinion publique face au scandale Cambridge Analytica laisse penser12. Poussée à l’extrême, cette question peut également interroger la responsabilité juridique de certains actes qui auraient ainsi été soufflés par un tiers. Qui alors serait responsable ?
L’IA une avancée technologique aux conséquences transverses et juridiques
On voit là se dégager une double problématique : s’il faut arriver à envisager les possibilités futures de l’IA afin de tracer des frontières éthiques à cette technologie, il convient alors aussi que les utilisateurs puissent parfaitement cerner les enjeux liés à la maitrise éclairée de leurs données afin de pouvoir faire un choix éclairé entre ce pour quoi ils sont prêts à utiliser de l’IA et les données qu’ils préfèrent garder dans la sphère privée. La préservation de la liberté de choix des personnes est à ce prix.
Avec cette question se pose le problème de la réglementation de la propriété des données, notamment en termes de droit de propriété, usus, fructus et abusus.
En effet, si un individu fait le choix éclairé de laisser l’usage de ses données à un tiers, par exemple une société qui en tirera un bénéfice commercial, on peut s’interroger sur la légitimité d’une demande de dédommagement, d’intéressement à son profit. Si ce questionnement peut paraitre étrange il anime la campagne américaine des primaires dans le camp démocrate notamment par la voix d’Andrew yang13. Si cette idée peut paraitre utopiste, elle est en lien directe avec la société qui sera dessinée par ces nouvelles technologies.
L’écueil de la perte de confiance
Enfin, si cet article a évoqué certaines des craintes liées au développement de l’IA, il convient de bien prendre conscience que cette avancée technologique, déjà en marche, n’est pas un mouvement amené à s’arrêter. Qu’on la souhaite ou qu’on la craigne, cette technologie est appelée à se développer. Certains, comme Vladimir Poutine, y voient un enjeu majeur de géopolitique permettant à terme de dominer le monde14. Cette déclaration s’appuie sur plusieurs éléments parmi lesquels la capacité à prendre des décisions plus rapides, grâce à la puissance de calcul des machines, plus éclairées, grâce à la capacité de traitement d’un nombre important de données et l’absence de biais cognitifs participant à faire prendre des décisions contreproductives car plus émotionnelles que rationnelles.
Or dans cette hypothèse, si l’humain ne délègue pas totalement la prise de décision : l’IA serait un système d’aide à la décision particulièrement performant mais laissant le choix final à l’utilisateur humain. Mais il y a là un écueil majeur : la confiance, ou plutôt la défiance. En effet, un système d’IA a pour intérêt essentiel d’être capable de traiter des données comme aucun cerveau humain ne peut le faire. Les systèmes de ML développent des systèmes d’apprentissage opaques, via des « black box », qui rendent difficile de comprendre comment le système est arrivé au choix qu’il propose. Cette absence de compréhension, si elle se double d’une défiance fondée sur des exemples d’utilisations abusives ou inappropriées d’IA, aura tendance à susciter la défiance d’un utilisateur qui pourrait alors faire des options proposées par le système. Il se priverait ainsi de données dont ses concurrents ou adversaires pourraient disposer. Les conséquences pourraient en être importantes pour une société commerciale et graves pour un Etat. Ce risque n’est pas anecdotique : conscient de cet écueil le DARPA (Defense Advanced Research Projects Agency) rattaché au ministère de la Défense américain développe un programme baptisé Explainable Artificial Inelligence Program15 dont l’objectif est de créer des ensembles d’outils comprenant du ML et des interfaces homme-machine. Ceux-ci seraient utilisables pour développer des systèmes d’IA dont la rationnalité serait explicable aux utilisateurs. Leur confiance dans le système en serait accrue et ils seraient donc mieux enclins à l’utiliser, plus volontiers et mieux, dans une forme s’approchant d’un partenariat confiant.
Ce problème de confiance est crucial quel que soit le domaine, notamment car il va devoir faciliter la confrontation entre la rationalité et l’émotionnel.
A titre d’exemple, une étude16 montre que si la plupart des gens sont prêts à utiliser des logiciels d’IA, notamment en ce qui concerne la gestion de ressource humaine, c’est à la condition de pouvoir en modifier certains critères à volonté. Cela démontre bien qu’en ce qui concerne l’interaction directe avec l’humain, les individus ont tendance à prêter des intentions malveillantes à une IA, dénuée de sensibilité alors que l’intuition humaine lui serait supérieure. Certes, n’ayant pas de perception globale de son environnement, l’IA est dépourvue de « sens commun » et de valeurs. Néanmoins se priver totalement de l’analyse produite pourrait amener à être totalement contreproductif : une telle attitude priverait, par exemple, de la capacité à modifier des bien ancrés tels que les discriminations à l’embauche17 ou encore l’anticipation de démissions, signe de mal être humain pouvant aussi engager la survie de certaines organisations18.
On le voit clairement : nous sommes à un tournant technologique ! En réalité, ce virage a souvent été plus rapidement entamé par des structures privées que par les Etats. Si l’IA promet beaucoup d’avancées allant de la sécurisation des diagnostics médicaux à la facilitation de recherche de personnes disparues, elle peut également être porteuse d’écueils tels que l’aliénation des libertés individuelles, la perte du libre arbitre, l’appauvrissement de la pensée humaine ou la naissance d’une défiance chronique entre l’homme et la machine. Néanmoins, cette révolution technologique est en marche et ne pas s’en saisir permettrait à d’autres, potentiellement moins bien intentionnés, de le faire, interdisant ensuite tout retour en arrière qui permettrait le développement d’un éco-système homme-machine éthique et productif. Ces interrogations sont complexes, parce qu’elles impliquent de penser à un monde à venir : rappelons que si l’IA de DeepMind a su battre les meilleurs joueurs de Go ou de StarCraft, elle a échoué à un contrôle de mathématiques prévu pour des élèves de 16 ans19.
Une fois ce monde en devenir conceptualisé, il convient de le penser en terme d’éthique, d’aspirations sociales et humaines.
Cela appelle une réflexion transverse, tant juridique qu’académique, mêlant les sciences dites « dures » et « souples ». Enfin, cela nécessite de préparer la société à la compréhension des enjeux pour qu’elle se prononce sur ce qui est de prime importance afin de définir les limite de l’utilisation de l’IA. On le voit ce sujet, qui focalise légitimement les passions, doit être pris à bras le corps sans être ni négligé ni diabolisé : la technologie n’est que ce que nous en ferons.
Christine Dugoin-Clément, analyste pour le think tank CapeEurope
Chercheur à l’Université Paris 1 Panthéon-Sorbonne
- https://www.europe1.fr/politique/letat-va-consacrer-15-milliard-deuros-a-lintelligence-artificielle-jusqua-2022-3612815. ↩
- https://www.courrierinternational.com/article/techno-la-france-premier-pays-deurope-utiliser-la-reconnaissance-faciale-comme-preuve ↩
- https://www.usnews.com/news/best-countries/articles/2019-07-26/growing-number-of-countries-employing-facial-recognition-technology ↩
- https://www.challenges.fr/high-tech/le-plan-de-la-chine-pour-devenir-leader-mondial-en-intelligence-artificielle_488717. ↩
- https://www.rferl.org/a/russian-challenges-use-of-facial-recognition-technology-that-has-facilitated-protest-crackdown/30204309.html ↩
- https://www.cnbc.com/2019/09/06/ai-worries-about-the-dangers-of-facial-recognition-growing-in-china.html ↩
- https://www.biometricupdate.com/201909/facial-recognition-backlash-grows-in-china ↩
- https://www.theguardian.com/us-news/2019/may/14/san-francisco-facial-recognition-police-ban ↩
- https://cvdazzle.com/ ↩
- https://www.wired.com/story/behind-rise-chinas-facial-recognition-giants/# ↩
- https://www.lemonde.fr/prix-nobel/article/2017/10/09/le-prix-nobel-d-economie-2017-est-attribue-a-l-americain-richard-thaler-pour-ses-travaux-sur-la-finance-comportementale_5198274_1772031.html ↩
- https://www.lexpress.fr/actualite/monde/amerique-nord/election-de-trump-le-hold-up-de-cambridge-analytica-sur-les-usagers-de-facebook_1993257.html ↩
- https://www.lesechos.fr/idees-debats/editos-analyses/andrew-yang-le-president-quil-faut-pour-lamerique-1138434 ↩
- https://www.numerama.com/politique/286075-vladimir-poutine-voit-dans-lintelligence-artificielle-un-moyen-de-dominer-le-monde.html ↩
- https://www.darpa.mil/program/explainable-artificial-intelligence ↩
- https://pdfs.semanticscholar.org/6821/c54fa8e5d38a6fd729a16d50839a2c9514ce.pdf ↩
- https://www.pnas.org/content/early/2017/09/11/1706255114.full ↩
- https://www.cnbc.com/2019/04/03/ibm-ai-can-predict-with-95-percent-accuracy-which-employees-will-quit.html ↩
- https://www.lesnumeriques.com/vie-du-net/l-ia-deepmind-echoue-a-controle-mathematiques-niveau-lycee-n85791.html ↩