L’autorité fait des propositions et appelle à mieux encadrer l’usage de la reconnaissance faciale.
« Les avancées que permettent les technologies biométriques ne sauraient s’effectuer ni au détriment d’une partie de la population, ni au prix d’une surveillance généralisée. » C’est par ces termes forts que la défenseur des droits, Claire Hédon, appelle, dans un rapport publié jeudi, les pouvoirs publics et les entreprises privées à garder la tête froide face à des solutions logicielles qui peuvent paraître miraculeuses.
Reconnaissance faciale, vocale, ou émotive : la captation et l’analyse des données biométriques, notamment dans l’espace public, permettraient d’identifier et de localiser en temps réel des personnes recherchées, de détecter des comportements suspects dans la rue, dans les transports, ou au passage des frontières, ou même d’aider les entreprises dans leurs processus de recrutement en analysant les émotions des candidats… Mais, insiste l’autorité administrative indépendante, ces logiciels « font peser des risques considérables sur les droits fondamentaux, notamment en matière de discrimination »…