Mais elle pourrait bien nous faire basculer dans une dystopie version Black Mirror. Ces derniers jours, Nice a été la première ville de France à tester la reconnaissance faciale par intelligence artificielle, dans un but affiché de sécuriser l’accès au site du Carnaval.

Or non, cette technologie n’est ni fiable ni éthique pour assurer la sécurité publique, et voici pourquoi…

(TW : mention de fusillade)


Dis donc Jamy, c’est quoi la reconnaissance faciale ?


La reconnaissance faciale (comme outil de surveillance de l’espace public) est opérée par une intelligence artificielle qui, via le réseau de caméras de la ville, détecte les visages puis effectue, à la vitesse de la lumière, une comparaison avec une large base de données répertoriant nos jolis minois. En d’autres termes, elle nous identifie.

De quoi est nourrie cette base de données ? Pour le moment, des fichiers de la police. Demain peut-être des photos de nos passeports, mais pas seulement. Nous postons tous les jours, de notre plein gré, des pétaoctets de selfies sur les réseaux sociaux : l’algorithme n’aurait plus qu’à venir y faire son petit marché.


N’y aurait-il pas comme des motivations politiques
derrière tout ça?


Un des usages concrets de cette tech, mise en avant pour rassurer le public, serait de retrouver des enfants ou des personnes âgées perdus. Un fils inquiet envoie au service de surveillance une photo de papy qui s’est fait la malle (on le comprend) de son EHPAD, et le grand-père est retrouvé sain et sauf, alors qu’il errait, amnésique, dans la ville.

Sauf que ces cas représentent une portion négligeable de l’usage de cette tech. L’enjeu pour les pouvoirs publics est bien évidemment ailleurs, et c’est là qu’il faut regarder.

Sur une vidéo de démonstration, la police procède à l’interpellation d’une femme recherchée, suite à son identification et à sa localisation par caméra. L’objectif est donc très clairement de repérer les personnes suspectes et de procéder à des arrestations.

On peut facilement comprendre que les maires des grandes villes lorgnent sur le contrôle par biométrie faciale, par exemple pour l’accès aux transports publics. Plus besoin de pass! Ce système est déjà en place dans les aéroports de Nice et de Paris, il fonctionne à Helsinki, à Hong Kong, au Japon… la liste ne fait que s’allonger. Les visages des passagers sont scannés pour vérifier qu’ils correspondent à leurs documents de voyage, le but étant aussi de fluidifier le contrôle des passagers.

Mais au-delà de ça, les politiques aimeraient bien empêcher les personnes identifiées comme menace, de monter à bord des trains et métros. Sans contrôle judiciaire? (Qui doit être interdit de transit? Dans quel cadre? Pour combien de temps?) Certainement pour marquer des points côté angoisse sécuritaire et surtout, gagner des électeurs aux municipales 2020.


1.4 milliard de Chinois sous surveillance et moi et moi et moi ?


Arrêtons-nous un instant pour observer ce qui se passe en Chine.

Cette dernière est leader sur le marché des technologies de reconnaissance faciale. C’est aussi le pays qui les utilise le plus massivement : en Chine, on retire de l’argent, on s’enregistre à l’hôpital et on paie sa commande à la borne fast-food avec son visage. Qui dit reconnaissance faciale dit aussi reconnaissance des émotions : si vous avez l’air inquiet, en colère ou nerveux, la machine le détectera (est-ce que vous préparez un mauvais coup ?) Si vous baillez dans l’amphithéâtre de votre université, c’est que vous vous ennuyez, il est temps pour votre professeur d’améliorer sa performance où il sera bientôt remercié.

Au-delà des usages commerciaux dans le secteur privé, c’est aussi et surtout le gouvernement chinois qui s’est approprié la reconnaissance faciale. Le but à terme : développer un large réseau de surveillance dans les villes pour garder l’oeil sur 1.4 milliards de citoyens. La police est aussi désormais équipée de lunettes faisant le même office, et signalant en temps réel l’identification d’une personne recherchée.

Si vous êtes habitants de ces villes chinoises sous surveillance, chacun de vos déplacements mais aussi de vos actes et de vos émotions seront monitorés.

Dans une logique de name and shame, les contrevenants à l’ordre public (pas les arracheurs de sacs à main mais simplement les personnes qui traversent quand le bonhomme est rouge, ou qui volent des rouleaux de papiers dans les WC publiques) sont affichés sur écrans géants, avec leurs noms, leurs photos, leurs adresses.

On bascule ici dans un cauchemar dystopique, quand on lie données privées et reconnaissance faciale. Black Mirror est devenu réalité.


Soyons sérieux deux minutes, surtout quand il s’agit de nos vies et de celles de nos enfants


La reconnaissance faciale est bel et bien une technologie aux risques de dérives, le principal est évidemment l’atteinte à nos libertés individuelles.

Il en existe d’autres, comme les “faux-positifs” : vous pouvez être suivis et arrêtés par erreur, ce qui constitue une expérience franchement traumatique.

Un exemple concret pour comprendre les limites de cette technologie est son usage dans les lycées. Les premières expérimentations en France sont en cours à Nice et à Marseille. Deux établissements testent la reconnaissance faciale des élèves au portique, dans le but d’empêcher les intrusions de personnes non autorisées. Même scénario aux Etats-Unis, dans l’objectif d’éviter qu’une autre fusillade ajoute à la liste des pires traumas que le pays ait traversé.

Je voudrais pouvoir dire que la reconnaissance faciale sera efficace pour prévenir les tueries dans les lycées, mais c’est une connerie abyssale.

La technologie a montré ses faiblesses (et par la même occasion les biais racistes dans l’entraînement des IA) par exemple en confondant deux élèves noirs entre eux. De la même façon, l’American Civil Liberties Union a pondu une étude démontrant les failles du logiciel de reconnaissance faciale d’Amazon. Celui-ci a incorrectement identifié 28 membres du Congrès comme des criminels déjà condamnés. Les auteurs des tueries étaient parfois des élèves, ils avaient donc la permission d’entrer. Quant à repérer une émotion négative sur leurs visages, ceci n’empêchera pas le passage à l’acte.


Une régulation européenne est nécessaire


Etant donné les enjeux éthiques autour des usages, la reconnaissance faciale par les autorités doit être limitée aux cas de profils hautement dangereux, quand ils constituent une réelle menace pour la sécurité publique.

Ce n’est certainement pas à nous de dire à la Chine ce qu’il convient, éthiquement, de faire ou de ne pas faire. Nous ne sommes personne pour lui imposer des critères moraux et des gardes-fous.

Mais il est urgent d’exiger, en Europe et en France, une régulation. Nous devons nous interdire, par exemple, de lier reconnaissance faciale et données privées des individus. Il en va de la préservation de nos libertés fondamentales.