La réaction a été immédiate. Il a suffi que le gouvernement évoque son souhait de voir expérimentée la reconnaissance faciale dans les espaces publics pour que surgissent les habituelles récriminations : entrave à la vie privée, à notre droit de circuler dans l'anonymat ; premier pas vers un Big Brother à la chinoise... Mais ces considérations philosophiques nous font passer à côté de l'essentiel : dans de très nombreux cas, cette technologie est totalement inefficace.
Dans plusieurs démocraties occidentales, la reconnaissance faciale appliquée à la vidéosurveillance a déjà montré ses limites. Début janvier, la ville de San Diego, aux Etats-Unis, y renonçait, après sept ans d'expérimentation. Depuis 2012, elle n'a pas permis la moindre condamnation. Au Royaume-Uni, les systèmes utilisés cumulent les faux pas lorsqu'il s'agit d'identifier de potentiels criminels.
Péchés originels
Si ces échecs peuvent être le symptôme d'algorithmes défaillants, la source de ces déconvenues est plutôt à rechercher dans les bases de données. Ce sont elles qui "nourrissent" la machine, en lui fournissant des nuées de visages pour l'entraîner. Des visages qui, en Occident, ont souvent la peau claire. Résultat : ceux qui ont la peau sombre sont bien plus exposés à des erreurs d'interprétation.
Ces bases de données reposent sur un autre péché originel : elles sont conçues par des humains, afin de classer d'autres humains. Pour établir un jugement, le système s'appuie sur le passé, donc sur ses biais. La perspective d'une machine juste et infaillible est peut-être plus lointaine que certains veulent le présenter.
Ne paniquons donc pas trop vite : face à l'arsenal juridique de l'Union européenne - qui pourrait interdire la reconnaissance faciale dans l'espace public pendant cinq ans - et sous l'oeil attentif de la Cnil, il est assez peu probable que l'expérimentation gouvernementale se généralise.
