• Contact
  • Abonnez-vous
  • Contribuez
Panier / 0,00 €

Votre panier est vide.

Lire Le dernier numéroLe dernier numéro
Revue Politique et Parlementaire
  • Se connecter
S'abonner
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • Nos événements
    • Événements à venir
    • Événements passés
  • Boutique
    • Les numéros
    • Abonnement
  • La cité des débats
    • Aimons-nous encore la liberté ?
    • Faut-il avoir peur de l’avenir ?
Aucun résultat
Voir tous les résultats
Revue Politique et Parlementaire
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • Nos événements
    • Événements à venir
    • Événements passés
  • Boutique
    • Les numéros
    • Abonnement
  • La cité des débats
    • Aimons-nous encore la liberté ?
    • Faut-il avoir peur de l’avenir ?
Aucun résultat
Voir tous les résultats
Revue Politique et Parlementaire
Aucun résultat
Voir tous les résultats
dans Politique

Intelligence artificielle, reconnaissance faciale et gestion de l’humain : entre éthique, raison et émotion

Christine Dugoin-ClémentParChristine Dugoin-Clément
5 décembre 2019
Intelligence artificielle, reconnaissance faciale et gestion de l’humain : entre éthique, raison et émotion

Le Président Macron vient d’annoncer une ouverture de crédit de 1,5 milliard d’euros d’ici 2021 dédiés à l’intelligence artificielle (IA)1 afin que la France puisse devenir leader dans ce domaine. Dans le même temps s’amorce Alicem (authentification en ligne certifiée sur mobile), un projet de reconnaissance faciale appelé à devenir une preuve d’identité pour les démarches administratives. Avec cette innovation la France serait le premier pays européen à utiliser cette technologie2. Réaction de Christine Dugoin-Clément, analyste pour le think tank CapeEurope et chercheur à l’Université Paris 1 Panthéon-Sorbonne.

Cette technologie est déjà utilisée dans d’autres pays parmi lesquels la Chine3 qui, briguant le titre de leader mondial de l’IA, consacrera 22,15 milliards de dollars à ce projet à l’horizon 2020 et 59,07 milliards de dollars d’ici 20254, ou la Russie, certes bien plus modeste dans ses investissements5. Si on peut légitimement s’interroger quant à la possibilité réelle pour que la France devienne leader dans ce domaine à concurrence forte, où d’autres pays et plusieurs entreprises privées se sont déjà lancés avec d’autant plus de facilité qu’ils n’ont pas toujours les mêmes préoccupations, voire parfois les dilemmes, éthiques de la France, un autre volet s’impose quand on évoque cette technologie. En effet, cette annonce engendre une vague de protestations, de manifestations d’angoisses, s’agissant, notamment, particulièrement des  libertés individuelles que l’opinion publique craint, légitimement, de voir menacées, notamment après avoir observé l’utilisation faite par la Chine de la reconnaissance faciale et aux tentatives de protestations67. Le sujet de la protection des libertés individuelle, mis en lumière par les compréhensibles angoisses exprimées par la société civile, soulève une question de fond quant à l’impact sociétal de cette technologie et à son usage éthique.

L’IA, entre avancée et menace des libertés humaines ?

Si le débat s’attache tout particulièrement à la reconnaissance faciale que la France veut développer, alors que certaines villes américaines comme San Francisco et Oakland viennent de la bannir8, le débat pourrait s’étendre à l’utilisation plus large de l’IA dans le quotidien de chacun. En effet, ce qui rend la reconnaissance faciale si efficace, et donc si problématique et sulfureuse pour ses détracteurs, c’est la précision que permet le développement de machines apprenantes, ou Machine Learning (ML), précision qui a résolu nombre de problèmes liés à la reconnaissance des objets et, par construction, des visages. Dans les faits la reconnaissance faciale consiste dans la reconnaissance de modèles précis, ici les traits des individus, grâce à la mobilisation d’un grand nombre de données accessibles sur Internet de manière plus ou moins légale, alors que ces mêmes données n’y ont pas toujours été déposées en pleine connaissance de cause. En effet, ces « datas » (données) sont largement « offertes » à nombre d’acteurs privés par les utilisateurs et leurs proches : par exemple, « tagger » des amis sur les publications de réseaux sociaux permet de les reconnaitre, ou encore en utilisant la reconnaissance faciale pour débloquer son smartphone.

Il y a là, un paradoxe : est perçue comme une potentielle menace l’utilisation abusive, en termes de surveillance, que l’Etat pourrait faire des données permettant la reconnaissance faciale alors que l’utilisation qui pourrait tout autant en être faite par des sociétés privées au profit d’intérêts souvent commerciaux semble susciter une moindre défiance.

Cette approche interpelle car les élus de la République sont issus d’un scrutin démocratique et que l’action de l’Etat français s’inscrit dans un cadre constitutionnel. Certains internautes en sont conscients :  en témoigne l’émergence de mouvements artistiques utilisant la mode pour tromper les systèmes de reconnaissance9. Il reste que beaucoup ne semblent pas avoir pris la pleine mesure des enjeux.

L’une des origines de ce paradoxe pourrait être la perception du public : utiliser son visage pour débloquer son téléphone peut non seulement paraitre ludique, mais procure également un sentiment trompeur d’utilisation maîtrisée, de plus grand confort personnel. Dans le cas de l’Etat, qui peut parfois être coercitif dans l’exercice de ses missions régaliennes, la crainte d’une utilisation potentiellement abusive au regard des libertés individuelles ou du respect de la vie privée apparait immédiatement. Cette crainte n’est pas sans fondement et son bien-fondé varie selon le régime de l’Etat de résidence, notamment si l’on considère que la source principale de revenus des structures développant de la reconnaissance faciale provient de systèmes de surveillance et de sécurité10.

Au-delà de la surveillance, l’enjeu du libre arbitre

Il y a là une problématique de fond non seulement dans l’usage qui peut être fait de ces données, mais également dans la perception de cet usage.  Au-delà de la question de la reconnaissance faciale, cette problématique pourrait s’étendre à d’autres données, médicales, orientation politique, religieuse….

En effet, dans le cas d’une utilisation non réglementée, c’est le libre arbitre de l’individu qui pourrait alors être menacé.

Si on se réfère au « nudge », concept développé en économie qui désigne ainsi une impulsion, une « poussée du coude » destinée à modifier le comportement d’un consommateur en orientant discrètement ses choix. Issu de l’économie comportementale cette théorie, développée en 2008 (« Nudge : améliorer les décisions concernant la santé, la richesse et le bonheur » de Thaler et Cass Sunstein), a reçu un prix Nobel en 201711. Appliquée au sujet de l’IA nourrie par des ML, on peut alors se demander à quoi se résumerait la capacité de choix des individus, si les systèmes disposaient d’assez de données pour pouvoir définir des modèles comportementaux et donc des architectures d’influences discrètes, non coercitives. En effet, si nombre d’internautes sont ravis que Netflix leur soumette des propositions de programmes construites sur leurs choix précédents, peut-être préféreraient-ils garder la main sur leurs choix politiques. Ils souhaiteraient probablement que des tiers ne disposent pas de clefs pour qu’ils influencent leur choix. C’est en tout cas ce que la réaction de l’opinion publique face au scandale Cambridge Analytica laisse penser12. Poussée à l’extrême, cette question peut également interroger la responsabilité juridique de certains actes qui auraient ainsi été soufflés par un tiers. Qui alors serait responsable ?

L’IA une avancée technologique aux conséquences transverses et juridiques

On voit là se dégager une double problématique : s’il faut arriver à envisager les possibilités futures de l’IA afin de tracer des frontières éthiques à cette technologie, il convient alors aussi que les utilisateurs puissent parfaitement cerner les enjeux liés à la maitrise éclairée de leurs données afin de pouvoir faire un choix éclairé entre ce pour quoi ils sont prêts à utiliser de l’IA et les données qu’ils préfèrent garder dans la sphère privée. La préservation de la liberté de choix des personnes est à ce prix.

Avec cette question se pose le problème de la réglementation de la propriété des données, notamment en termes de droit de propriété, usus, fructus et abusus.

En effet, si un individu fait le choix éclairé de laisser l’usage de ses données à un tiers, par exemple une société qui en tirera un bénéfice commercial, on peut s’interroger sur la légitimité d’une demande de dédommagement, d’intéressement à son profit. Si ce questionnement peut paraitre étrange il anime la campagne américaine des primaires dans le camp démocrate notamment par la voix d’Andrew yang13. Si cette idée peut paraitre utopiste, elle est en lien directe avec la société qui sera dessinée par ces nouvelles technologies.

L’écueil de la perte de confiance

Enfin, si cet article a évoqué certaines des craintes liées au développement de l’IA, il convient de bien prendre conscience que cette avancée technologique, déjà en marche, n’est pas un mouvement amené à s’arrêter. Qu’on la souhaite ou qu’on la craigne, cette technologie est appelée à se développer. Certains, comme Vladimir Poutine, y voient un enjeu majeur de géopolitique permettant à terme de dominer le monde14. Cette déclaration s’appuie sur plusieurs éléments parmi lesquels la capacité à prendre des décisions plus rapides, grâce à la puissance de calcul des machines, plus éclairées, grâce à la capacité de traitement d’un nombre important de données et l’absence de biais cognitifs participant à faire prendre des décisions contreproductives car plus émotionnelles que rationnelles.

Or dans cette hypothèse, si l’humain ne délègue pas totalement la prise de décision : l’IA serait un système d’aide à la décision particulièrement performant mais laissant le choix final à l’utilisateur humain. Mais il y a là un écueil majeur : la confiance, ou plutôt la défiance. En effet, un système d’IA a pour intérêt essentiel d’être capable de traiter des données comme aucun cerveau humain ne peut le faire. Les systèmes de ML développent des systèmes d’apprentissage opaques, via des « black box », qui rendent difficile de comprendre comment le système est arrivé au choix qu’il propose. Cette absence de compréhension, si elle se double d’une défiance fondée sur des exemples d’utilisations abusives ou inappropriées d’IA, aura tendance à susciter la défiance d’un utilisateur qui pourrait alors faire des options proposées par le système. Il se priverait ainsi de données dont ses concurrents ou adversaires pourraient disposer. Les conséquences pourraient en être importantes pour une société commerciale et graves pour un Etat. Ce risque n’est pas anecdotique : conscient de cet écueil le DARPA (Defense Advanced Research Projects Agency) rattaché au ministère de la Défense américain développe un programme baptisé Explainable Artificial Inelligence Program15 dont l’objectif est de créer des ensembles d’outils comprenant du ML et des interfaces homme-machine. Ceux-ci seraient utilisables pour développer des systèmes d’IA dont la rationnalité serait explicable aux utilisateurs. Leur confiance dans le système en serait accrue et ils seraient donc mieux enclins à l’utiliser, plus volontiers et mieux, dans une forme s’approchant d’un partenariat confiant.

Ce problème de confiance est crucial quel que soit le domaine, notamment car il va devoir faciliter la confrontation entre la rationalité et l’émotionnel.

A titre d’exemple, une étude16 montre que si la plupart des gens sont prêts à utiliser des logiciels d’IA, notamment en ce qui concerne la gestion de ressource humaine, c’est à la condition de pouvoir en modifier certains critères à volonté. Cela démontre bien qu’en ce qui concerne l’interaction directe avec l’humain, les individus ont tendance à prêter des intentions malveillantes à une IA, dénuée de sensibilité alors que l’intuition humaine lui serait supérieure. Certes, n’ayant pas de perception globale de son environnement, l’IA est dépourvue de « sens commun » et de valeurs. Néanmoins se priver totalement de l’analyse produite pourrait amener à être totalement contreproductif : une telle attitude priverait, par exemple, de la capacité à modifier des bien ancrés tels que les discriminations à l’embauche17 ou encore l’anticipation de démissions, signe de mal être humain pouvant aussi engager la survie de certaines organisations18.

On le voit clairement : nous sommes à un tournant technologique ! En réalité, ce virage a souvent été plus rapidement entamé par des structures privées que par les Etats. Si l’IA promet beaucoup d’avancées allant de la sécurisation des diagnostics médicaux à la facilitation de recherche de personnes disparues, elle peut également être porteuse d’écueils tels que l’aliénation des libertés individuelles, la perte du libre arbitre, l’appauvrissement de la pensée humaine ou la naissance d’une défiance chronique entre l’homme et la machine. Néanmoins, cette révolution technologique est en marche et ne pas s’en saisir permettrait à d’autres, potentiellement moins bien intentionnés, de le faire, interdisant ensuite tout retour en arrière qui permettrait le développement d’un éco-système homme-machine éthique et productif. Ces interrogations sont complexes, parce qu’elles impliquent de penser à un monde à venir : rappelons que si l’IA de DeepMind a su battre les meilleurs joueurs de Go ou de StarCraft, elle a échoué à un contrôle de mathématiques prévu pour des élèves de 16 ans19.

Une fois ce monde en devenir conceptualisé, il convient de le penser en terme d’éthique, d’aspirations sociales et humaines.

Cela appelle une réflexion transverse, tant juridique qu’académique, mêlant les sciences dites « dures » et « souples ». Enfin, cela nécessite de préparer la société à la compréhension des enjeux pour qu’elle se prononce sur ce qui est de prime importance afin de définir les limite de l’utilisation de l’IA. On le voit ce sujet, qui focalise légitimement les passions, doit être pris à bras le corps sans être ni négligé ni diabolisé : la technologie n’est que ce que nous en ferons.

Christine Dugoin-Clément, analyste pour le think tank CapeEurope 
Chercheur à l’Université Paris 1 Panthéon-Sorbonne

  1. https://www.europe1.fr/politique/letat-va-consacrer-15-milliard-deuros-a-lintelligence-artificielle-jusqua-2022-3612815. ↩
  2. https://www.courrierinternational.com/article/techno-la-france-premier-pays-deurope-utiliser-la-reconnaissance-faciale-comme-preuve ↩
  3. https://www.usnews.com/news/best-countries/articles/2019-07-26/growing-number-of-countries-employing-facial-recognition-technology ↩
  4. https://www.challenges.fr/high-tech/le-plan-de-la-chine-pour-devenir-leader-mondial-en-intelligence-artificielle_488717. ↩
  5. https://www.rferl.org/a/russian-challenges-use-of-facial-recognition-technology-that-has-facilitated-protest-crackdown/30204309.html ↩
  6. https://www.cnbc.com/2019/09/06/ai-worries-about-the-dangers-of-facial-recognition-growing-in-china.html ↩
  7. https://www.biometricupdate.com/201909/facial-recognition-backlash-grows-in-china ↩
  8. https://www.theguardian.com/us-news/2019/may/14/san-francisco-facial-recognition-police-ban ↩
  9. https://cvdazzle.com/ ↩
  10. https://www.wired.com/story/behind-rise-chinas-facial-recognition-giants/# ↩
  11. https://www.lemonde.fr/prix-nobel/article/2017/10/09/le-prix-nobel-d-economie-2017-est-attribue-a-l-americain-richard-thaler-pour-ses-travaux-sur-la-finance-comportementale_5198274_1772031.html ↩
  12. https://www.lexpress.fr/actualite/monde/amerique-nord/election-de-trump-le-hold-up-de-cambridge-analytica-sur-les-usagers-de-facebook_1993257.html ↩
  13. https://www.lesechos.fr/idees-debats/editos-analyses/andrew-yang-le-president-quil-faut-pour-lamerique-1138434 ↩
  14. https://www.numerama.com/politique/286075-vladimir-poutine-voit-dans-lintelligence-artificielle-un-moyen-de-dominer-le-monde.html ↩
  15. https://www.darpa.mil/program/explainable-artificial-intelligence ↩
  16. https://pdfs.semanticscholar.org/6821/c54fa8e5d38a6fd729a16d50839a2c9514ce.pdf ↩
  17. https://www.pnas.org/content/early/2017/09/11/1706255114.full ↩
  18. https://www.cnbc.com/2019/04/03/ibm-ai-can-predict-with-95-percent-accuracy-which-employees-will-quit.html ↩
  19. https://www.lesnumeriques.com/vie-du-net/l-ia-deepmind-echoue-a-controle-mathematiques-niveau-lycee-n85791.html ↩

Les derniers articles

Le défi écologique et énergétique, un atout pour l’attractivité de la France

Le défi écologique et énergétique, un atout pour l’attractivité de la France

ParFabien Laleuf

Depuis plusieurs années, la France et, plus largement, l’Union européenne, ambitionnent de devenir des leaders mondiaux de la transition écologique...

Diogène et le numérique

Diogène et le numérique

ParBernard Meunier

Quel manque de chance pour Diogène, il est né trop tôt ! Le « tout numérique » lui aurait permis d’accumuler bien plus...

Les séries comme arme de soft power

Les séries comme arme de soft power

ParVirginie Martinet1 autre

Le paysage culturel international est de plus en plus occupé par les séries. Ce genre fictionnel permet aux pays non...

Sommes-nous en guerre ?

Sommes-nous en guerre ?

ParJean-François Cervel

Sommes-nous en guerre ? La réponse à cette question est manifestement oui. Le savons-nous ? Les opinions publiques des pays occidentaux en...

Retrouvez nos dernières vidéos

[embedyt] https://www.youtube.com/embed?listType=playlist&list=UUOJ5roFrpz9I1nQzq7hXr1Q&layout=gallery[/embedyt]

Suivez-nous sur twitter

Tweets de @RevuePol

Inscrivez-vous à notre Newsletter

Related Posts

Sommes-nous en guerre ?
Politique

Sommes-nous en guerre ?

Le tournant ou l’engrenage fatal ?
Politique

Le tournant ou l’engrenage fatal ?

Emploi des seniors : encore une politique coercitive
Politique

Emploi des seniors : encore une politique coercitive

L’édito d’Arnaud Benedetti avec notre partenaire Radio Orient
Politique

L’édito d’Arnaud Benedetti avec notre partenaire Radio Orient

Quel rôle pour la diaspora dans la société corse ?
N° 1105

Quel rôle pour la diaspora dans la société corse ?

Un budget de la Justice sans précédent
Politique

Un budget de la Justice sans précédent

Hiver fatal ?
Politique

Hiver fatal ?

L’édito d’Arnaud Benedetti avec notre partenaire Radio Orient
Politique

L’édito d’Arnaud Benedetti avec notre partenaire Radio Orient

Article suivant
Cinq ruptures pour une Europe à venir

Cinq ruptures pour une Europe à venir

La Revue Politique et Parlementaire
10 rue du Colisée 75008 Paris
Email : contact@revuepolitique.fr
Téléphone : 01 76 47 09 30

Notre Histoire
L'équipe

Culture
Economie
Faut… de la géopolitique
International
La tribune du parlementaire
Libre opinion
Politique
Science et technologie
Société
Vie du parlement

Aucun résultat
Voir tous les résultats
  • Politique
  • International
  • Economie
  • Culture
  • Société
  • Science et technologie
  • Nos événements
    • Événements à venir
    • Événements passés
  • Boutique
    • Les numéros
    • Abonnement
  • La cité des débats
    • Aimons-nous encore la liberté ?
    • Faut-il avoir peur de l’avenir ?

Revue Politique et Parlementaire

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Se connecter

Add New Playlist