Les faux-débats de la reconnaissance faciale

(Chronique Fisheye #39) Un article récent du New York Times illustre la dérive du journalisme technologique, devenu instigateur de paniques morales. Intitulé «Comment les photos de vos enfants servent la société de surveillance», il se présente comme une fable de la faillite des utopies libertaires du web 2.0, confrontées à la froide rationalité du capitalisme de prédation et des derniers développements de l’intelligence artificielle. Qu’en en juge. L’histoire s’ouvre avec une mère de famille découvrant les photos de ses enfants, téléchargées en 2005 sur la plate-forme Flickr, au sein d’une base de données de plusieurs millions d’images, prélevées sans autorisation sur le site, qui sert aujourd’hui de terrain d’exercice à des centaines d’entreprises pour mettre au point les algorithmes de reconnaissance faciale, avec notamment Google, Amazon, Mitsubishi Electric, ou les chinois Tencent et SenseTime.

A côté des images qui témoignent de la présence de photos de famille dans la base MegaFace, le quotidien new-yorkais publie le portrait actuel de Chloé Papa, âgée de 19 ans, l’air sérieux, qui déclare: «J’aurais aimé qu’on me demande mon avis avant». Jouant sur la sensibilité au consentement et la culpabilité de parents ayant exposé involontairement leurs enfants, l’article souligne l’absence de protection des données personnelles des Américains. Mais il dévoile également une faille juridique: l’Etat de l’Illinois s’est doté d’une législation qui permet le contrôle des données biométriques, susceptible de générer des plaintes collectives à hauteur de plusieurs milliards de dollars, selon l’avis d’avocats spécialisés.

La reprise de ce récit par de nombreux médias montre les limites de la compréhension des mécanismes en jeu. Selon le quotidien italien La Repubblica, qui dénonce le «scandale MegaFace», les anciens usagers de Flickr dont les images ont été utilisées sans autorisation risquent de voir leur identité reconnue plus rapidement, puisque leurs portraits ont servi à entraîner les logiciels. Cette crainte est évidemment sans fondement, car les outils de détection ne sont pas construits à partir des photos prélevées, qui ont seulement été utilisées pour la mise au point des algorithmes de reconnaissance. S’il est désagréable de se dire que des photos de famille partagées en toute innocence alimentent l’industrie de la surveillance, cet usage n’expose les individus photographiés à aucun archivage à des fins d’identification, ni à aucun désagrément direct.

Il n’y a de fait rien à reprocher à l’université de Washington, qui a conçu en 2015 la base de données MegaFace en respectant les clauses des licences Creative Commons associées aux photos de Flickr, et en sélectionnant celles qui autorisent la réutilisation. Mise à disposition des chercheurs en intelligence artificielle, cette ressource publique est rapidement devenue un outil d’évaluation comparative (benchmark) pour les entreprises spécialisées, qui voient leurs essais classés en fonction du taux de réussite de leur algorithme. Cette base n’est évidemment pas le seul outil de test des applications de surveillance, et il est probable que les vastes ensembles de données visuelles réunis par les réseaux sociaux comme Facebook alimentent de façon plus discrète l’amélioration de la reconnaissance.

Gare de Lyon, novembre 2019.

Faut-il en tirer la conclusion qu’il vaut mieux renoncer à poster des photos en ligne, façon drastique de limiter les usages indésirables? Pourtant, la participation à la conversation numérique est une liberté qui contribue à peser sur la sphère publique, et les images personnelles constituent une alternative précieuse à la vision stéréotypée de la production commerciale. Plutôt que la limitation de cette capacité, il importe de faire évoluer la protection des droits individuels en fonction des nouveaux usages des données biométriques.

Ajoutons que les technologies de surveillance ne visent pas des images en ligne, mais des individus dans la société. Le vrai scandale n’est pas la réutilisation de vieilles photos de famille, mais le fait que nous soyons tous, dans un futur proche, exposés à l’inquisition d’administrations qui, au nom de la sécurité, contrôleront nos déplacements dans l’espace public. Résister à cette perspective n’est pas une question d’images, mais de droits civils et de protection des libertés, comme l’illustre la courageuse décision de la ville de San Francisco d’interdire la reconnaissance faciale.

6 Commentaires

  1. Oui, la menace sur les libertés individuelles est déjà bien mise « en ligne » grâce à la reconnaissance faciale se développant à la vitesse grand V notamment en Chine.

    Nul doute que notre bien-aimé Président, qui a fait un saut commercial récemment à Pékin, se soit entretenu avec son homologue chinois de l’avenir de cette technologie pas du tout attentatoire à la libre circulation des personnes et à une existence non surveillée chaque seconde par les milliers et millions de caméras disposées à chaque coin de rue ou dans les galeries commerciales, les gares (pas seulement celle de Lyon à Paris) et couplées avec un système de « points » que l’on enlève comme sur un « permis de vivre » à la moindre « infraction » – un piéton traversant hors des clous – et induisant l’interdiction de sortir de la ville ou autres brimades en attendant la prison.

    Un spécialiste de ces questions planche au sein du gouvernement français et trouve que tout ça représente un grand progrès. Les bombes à peinture pouvant obscurcir ces objectifs de vidéo panoptiques seront prochainement interdites à la vente. Leurs acheteurs actuels sont déjà fichés sans le savoir (la CNIL n’est pas au courant).

  2. Retour PingCe que le numérique nous fait et ce que nous en faisons... | Pearltrees

  3. Croire que l’on peut défendre le droit sans toucher à la technologie est bizarre. Cela ne s’est jamais passé comme ça. Comment interdire à Google de faire le lien entre « des vieilles photos » et les personnes réelles? Absolument impossible, car le but même de la technologie est de faire ce lien de manière la plus invisible possible. Google ne s’intéresse pas aux peintures, qui pourtant représentent un corpus abondant. Ce sont les photos de gens réels qui ont un intérêt. On ne défend le droit qu’en posant des limites concrètes et vérifiables par tout un chacun à la technologie. Ce à quoi la technologie s’oppose de toutes ses forces et par tous les moyens, car c’est sa nature, et elle contrôle l’argent, et donc la politique. C’est donc un combat de tous et de tous les instants, et l’article du NYT apparemment en prends acte.

  4. @Laurent Fournier: Réservées aux chercheurs, les données de la base MegaFace sont hors réseau, et ne sont donc pas accessibles à un moteur de recherches. C’est le NYT qui, après s’être inscrit comme participant sur la base et après avoir identifié les sources, a révélé à quelques familles l’existence de la base de données et la présence en son sein de photos issues de Flickr.

  5. L’armée indienne demande à tous ses officiers de vider leur compte facebook et d’arrêter d’utiliser whatsapp.
    https://www.rt.com/news/473501-indian-army-whatsapp-facebook/

    https://m.businesstoday.in/story/army-asks-serving-officers-to-quit-whatsapp-groups-social-media/1/363154.html

    Plus simplement, la Russie a interdit les smartphones pour les officiers.

    Et les ordres « sensibles », lorsqu’ils doivent être écrits, le sont sur des machines à écrire mécaniques.

    Autant pour la sécurité des gafa… Pour ceux qui setaient tentés de mettre en ligne des photos de famille ou d’ouvrir un compte en banque (projets de facebook et google)

  6. Je ne comprends pas bien l’intérêt de relayer des instructions de l’armée de tel ou tel pays. Pour revenir au sujet, un article publié aujourd’hui dans Le Monde reproduit les recommandations de la CNIL, qui plaide pour un « code de la route » de la reconnaissance faciale, mais se refuse à exclure les usages les plus intrusifs, comme la reconnaissance faciale à la volée dans l’espace public:
    https://www.lemonde.fr/pixels/article/2019/11/15/la-cnil-plaide-pour-un-code-de-la-route-de-la-reconnaissance-faciale_6019214_4408996.html

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.