Le problème de la confidentialité visuelle est mal posé en ce sens que la protection de la vie privée signifie différentes choses pour différentes personnes, et les attitudes à l’égard de sa protection varient qu’il s’agisse d’un droit ou d’une obligation, à l’hypothèse : quiconque revendique la vie privée doit avoir quelque chose à cacher.
La vie privée en général et la confidentialité visuelle en particulier ne peuvent être préservées que face à l’inévitable surveillance omniprésente.
Notre seul choix est de laisser cette surveillance entre les mains des autorités ou de démocratiser l’accès aux mécanismes de surveillance et d’utiliser ces mêmes outils pour « surveiller les observateurs » et ainsi protéger la population contre les abus du pouvoir énorme que l’appareil de surveillance offre.
Les systèmes de protection de la vie privée du visage
Face à l’omniprésence de l’imagerie numérique:
- caméras personnelles
- téléphones cellulaires
- caméras de surveillance et de télévision (utilisées par les gouvernements, les entreprises et les particuliers)
Avec les nouvelles technologies d’analyse et d’exploitation de ces images, il est important de se demander quels sont les risques pour la vie privée créés ou exacerbés et quelles protections pourraient être mises en place pour protéger la vie privée des personnes.
La confidentialité visuelle est préoccupante depuis l’invention de la photographie, mais les problèmes deviennent aussi critiques à mesure que l’imagerie numérique se généralise.
Aussi, le traitement d’images, la vision par ordinateur et les techniques de cryptographie sont, pour la première fois, en mesure de fournir des solutions technologiques à certains problèmes de confidentialité visuelle.
Les risques du piratage visuel
Tout comme il est difficile de définir la protection de la vie privée, il est difficile de déterminer quand la protection de la vie privée a été prise en compte.
De même, de nombreuses personnes sont heureuses d’échanger leur vie privée intangible contre des rendements négligeables. Il est donc difficile d’évaluer les intrusions dans la vie privée.
Dans de nombreuses applications où il y a des préoccupations en matière de protection de la confidentialité visuelle, il est difficile de citer des exemples où il y a un effet matériel sur une personne « qui n’a rien fait de mal ».
Le sentiment d’inquiétude demeure, peut-être parce que tout le monde a fait quelque chose de « mal », que ce soit au sens personnel ou juridique (excès de vitesse, stationnement, jaywalking…).
Il n’est pas possible qu’un gouvernement auquel nous donnons de tels pouvoirs commence à s’orienter vers l’autoritarisme et à les appliquer à des fins que nous n’apprécions pas.Il y a un continuum d’intrusion dans la confidentialité visuelle, et notre point de confort sur ce continuum peut facilement être supplanté par un petit incitatif ou un accès de battage médiatique:
- Les utilisateurs de systèmes de vidéosurveillance doivent empêcher l’accès non autorisé aux salles/zones de contrôle de vidéosurveillance ; tous les visiteurs doivent être autorisés et consignés dans le registre des visiteurs et avoir signé le formulaire de confidentialité.
- Les opérateurs/le personnel doivent être formés à l’utilisation de l’équipement et à la gestion des bandes.
- Ils devraient également être pleinement au courant des codes de pratiques et des procédures du système.
- L’observation des données par un tiers doit être empêchée, par exemple, aucun personnel non autorisé ne doit voir le moniteur de vidéosurveillance.
Pourquoi les images sont-elles différentes ?
Une grande différence entre la confidentialité des données ordinaires et la confidentialité visuelle est la nature amorphe de cette dernière et la difficulté de la traiter automatiquement pour extraire des informations utiles.
Un clip vidéo peut transmettre des quantités négligeables d’informations ou peut contenir des informations très détaillées et spécifiques (sur les heures, l’apparence d’une personne, les actions).
La protection de la confidentialité visuelle est difficile à définir. Ainsi, même pour les renseignements textuels explicites tels que le nom, l’adresse et les champs du numéro de sécurité sociale dans une base de données, la connaissance peut être utilisée pour le vol d’identité, la fraude et l’exploration de renseignements.
Il devient beaucoup plus difficile d’évaluer l’atteinte à la confidentialité visuelle qui pourrait résulter des informations non structurées mais potentiellement très riches pouvant être récoltées à partir de vidéos de surveillance.
Une simple vidéo d’une personne passant devant une caméra de surveillance en soi donne peu de pouvoir sur l’individu, sauf dans quelques rares circonstances (comme prouver ou invalider un alibi).
Protection de la vie privée et reconnaissance faciale
La dés identification ( ou visage non identifiable) est appelée k-same : elle donne un visage dont les chances d’être correctement identifiées ne sont pas supérieures à 1k.
Dans leurs travaux plus récents, ils utilisent une décomposition multifactorielle dans leurs répétitions faciales qui réduit les artefacts de mélange et permet de préserver l’expression faciale tout en cachant l’identité du visage.
Ils considèrent également l’application de cela dans une base de données vidéo médicale, montrant les réponses des patients à la douleur, dans laquelle l’expression faciale, mais pas l’identité, est importante.
Garantir la confidentialité visuelle
Les systèmes de traitement de l’information vidéo sont sujets aux erreurs.
Des performances parfaites ne peuvent être garanties, même dans des conditions de fonctionnement assez bénignes, et le système fait deux types d’erreurs lors de la séparation de la vidéo en flux :
- détection manquée (d’un événement ou d’un objet)
- fausse alarme (déclenchement lorsque l’événement ou l’objet n’est pas présent)
Nous pouvons échanger ces erreurs les unes contre les autres, en choisissant :
- un point de fonctionnement avec une sensibilité élevée qui a peu de détections manquées, mais beaucoup de fausses alarmes
- un point avec une faible sensibilité qui a peu de fausses alarmes, mais le plus souvent ne parvient pas à détecter les événements réels quand ils se produisent
Les problèmes de capacité de traitement vidéo imparfaite peuvent être minimisés en sélectionnant le point d’exploitation système approprié.
Les coûts de la détection manquée et de la fausse alarme sont sensiblement différents en matière de protection de la confidentialité visuelle de ceux d’un système de surveillance.
Compte tenu de la nature délicate des renseignements, il est probable qu’une seule détection manquée puisse révéler des renseignements personnels sur de longues périodes.
Par exemple, le fait de ne pas détecter, et donc d’obscurcir, un visage dans une seule image vidéo pourrait permettre d’afficher des renseignements sur l’identité et ainsi compromettre l’anonymat des jours d’information agrégée sur la piste associée à la personne soi-disant anonyme.
D’autre part, une fausse alarme occasionnelle (par exemple, obscurcir quelque chose qui n’est pas un visage) peut avoir un impact limité sur l’efficacité de l’installation.Le point de fonctionnement peut faire partie de la structure de contrôle d’accès — une plus grande autorisation permet de réduire le taux de fausses alarmes à un risque plus élevé de compromettre la confidentialité visuelle.