QU’EST-CE QUE LA RECONNAISSANCE FACIALE ?
La reconnaissance faciale est une technique d’analyse biométrique qui utilise les caractéristiques du visage (la longueur du front, l’écartement des yeux, les arêtes du nez, la distance entre la bouche et le nez, etc.) pour authentifier ou identifier une personne. L’authentification permet de vérifier que la personne est bien celle qu’elle prétend être (par exemple pour déverrouiller son smartphone). L’autre finalité, l’identification, permet d’identifier une personne dans l’espace public ou dans un lieu public sur base des caractéristiques de son visage. Le système transforme les traits des visages en données biométriques et il les compare avec celles qui composent la base de données. Cette récoltes d’images peut être utilisée en temps réel ou sur base d’images enregistrées préalablement. Cette technologie, qui entrave des droits fondamentaux comme le droit à la vie privée ou à l’anonymat, doit être interdite.
LA RECONNAISSANCE FACIALE EST-ELLE AUTORISÉE EN BELGIQUE?
La reconnaissance faciale est une technologie hautement attentatoire à la vie privée étant donné qu’elle consiste à récolter et traiter des données à caractère personnel. Le RGPD (Règlement général sur la protection des données) considère les données biométriques comme hautement sensibles. En raison des risques accrus de préjudices individuels, le traitement de ces données est interdit par principe.
Dans un État de droit, les atteintes à nos droits et libertés fondamentales doivent être prévues par des lois. Le processus d’élaboration de la loi prévoit qu’un débat démocratique prenne place au sein d’une assemblée parlementaire. Aucune loi n’encadre la technologie de reconnaissance faciale: elle n’est donc pas autorisée et doit être considérée comme illégale et interdite.
LA RECONNAISSANCE FACIALE A-T-ELLE DÉJÀ ÉTÉ UTILISÉE EN BELGIQUE?
Bien qu’elle ne soit pas autorisée, la reconnaissance faciale a déjà été utilisée plusieurs fois dans le cadre de tests par la police fédérale, en Belgique.
En 2017, puis en 2019, la police fédérale a réalisé des tests à l’aéroport de Zaventem. L’organe de l’information policière (COC) exigera la fin de ces expérimentations car aucune base légale suffisante n’existe.
En 2020, la police fédérale a également réalisé une septantaine de recherches avec le logiciel Clearview IA (lien), très controversé, dans le cadre de réunions Europol. Une enquête du COC a également été ouverte.
Par ailleurs, selon une recherche menée par la KULeuven en Flandre et en région bruxelloise, au moins 5 zones de police locale sur 86 répondantes, disposaient de la reconnaissance faciale en 2021, l’une d’elle affirmant même l’utiliser “souvent à très souvent”.
En région bruxelloise, des zones de police utilisent notamment le logiciel “BriefCam”, de la société israélienne du même nom, pour analyser, au moyen d’algorithmes, les images des caméras qui filment l’espace public bruxellois. La société BriefCam propose aussi un système de reconnaissance faciale, compatible avec une partie du réseau de caméras à Bruxelles. Il n’y a donc pas de frein “technique” au déploiement de la reconnaissance faciale. Il existe aussi une volonté politique d’en équiper la police, comme le soulignait la ministre de l’Intérieur Annelies Verlinden, en 2021.
EN QUOI LA RECONNAISSANCE FACIALE ENTRAVE-T-ELLE NOS DROITS ET LIBERTÉS?
La technologie de reconnaissance faciale permettra de surveiller chacun·e dans l’espace public bruxellois,
Être filmé·e, enregistré·e, surveillé·e dans l’espace public constitue une atteinte à la vie privée et à la liberté individuelle. Cela impacte notre manière de nous comporter, nous exprimer, nous déplacer, d’agir, aussi dans l’espace public. Le simple fait de se savoir observé·e affecte notre comportement et notre liberté. La menace et la peur induites par les conséquences de la surveillance peuvent inhiber les comportements et, dans certains cas, entraîner un éloignement de l’espace public, pour toute une partie de la population. C’est ce qu’on appelle un « chilling effect » que l’on peut traduire par « effet dissuasif », « effet paralysant » ou « d’auto-censure ».
L’identification par la reconnaissance faciale restreint considérablement l’anonymat auquel l’on s’attend à pouvoir jouir même en public. L’usage de cette technologie dans nos rues nous rendrait tous·tes identifiables en permanence, en tout cas, tous·tes surveillé·es et potentiellement tous·tes suspect·es. En effet, cela revient à donner à nos autorités le pouvoir d’identifier l’intégralité de la population simplement parce qu’elle est dans l’espace public.
Lors de manifestations, la surveillance muselle la liberté d’expression et limite les possibilités de se rassembler. La mise en place de technologie de reconnaissance faciale pourrait, par ailleurs, être utilisée à l’encontre de toutes les personnes qui se rassembleraient, s’associeraient ou manifesteraient des opinions dissidentes dans l’espace public, qu’il s’agisse de journalistes, d’avocat·es, de syndicalistes, de militant·es ou de simples citoyen·nes.
Les velléités politiques qui poussent à son usage dans nos rues par les autorités publiques poursuivent des fins sécuritaires et répressives. Surveiller indistinctement ou de manière ciblée des groupes de personnes parce qu’ils pourraient potentiellement commettre un acte « illégal » constitue une violation de la présomption d’innocence. Cela risque de criminaliser ou stigmatiser davantage des groupes de personnes déjà victimes de discrimination.
De surcroît, nous ne sommes pas tous·tes égaux·ales face au contrôle social et à la criminalisation de nos comportements. S’il est évident que cette technologie changera indubitablement notre manière de nous comporter en public, d’exprimer librement nos opinions, elle impactera surtout les groupes sociaux particulièrement affectés par la précarité et plus marginalisés qui luttent pour leurs droits : personnes migrantes, communauté LGBTQIA+, minorités raciales, personnes sans-abri et de toutes personnes qui pourraient avoir une opinion, une identité, un statut administratif ou tout comportement dans l’espace public non-conformes à la norme dominante ou établie.
Elle pourrait avoir pour effet de museler les revendications légitimes de tous·tes les citoyen·nes.
Par ailleurs, cette technologie implique d’importants risques : piratages de ces données à caractère personnel très sensibles, erreurs et reproduction des discriminations sexistes ou racistes induites par les conceptions sociales dominantes et les institutions qui les vendent et les utilisent, menace d’un glissement vers une surveillance de masse.
LA RECONNAISSANCE FACIALE EST-ELLE EFFICACE POUR LUTTER CONTRE LA CRIMINALITÉ?
Les objectifs de lutte contre la criminalité et le terrorisme sont souvent brandis par les autorités pour plaider en faveur de la reconnaissance faciale. Or, l’efficacité de cette technologie est toute relative, notamment en raison des erreurs et des dérives qu’elle entraîne.
L’un des aspects les plus problématiques de la reconnaissance faciale est son potentiel de discrimination raciale et de partialité, puisque la plupart des applications de reconnaissance faciale ont été initialement “entrainées” à l’aide de données qui ne sont pas représentatives de la société dans son ensemble. En Grande-Bretagne, la reconnaissance faciale est utilisée depuis 2016. Trois ans plus tard, une première étude indépendante, réalisée par deux chercheurs de l’Université d’Essex sur l’usage de la reconnaissance faciale par la police de Londres, a démontré que 80 % des suspect·es signalé·es par le logiciel de reconnaissance faciale étaient en fait innocent·es. Le système identifiait régulièrement des personnes à tort, avec toutes les conséquences sociales et légales que cela peut induire.
Par ailleurs, si l’efficacité de cette technologie est relative, ses dérives sont quant à elles bien documentées. En Chine, la reconnaissance faciale est un outil du contrôle social mis en place par les autorités. Selon le journal américain Wired, l’Iran utiliserait la reconnaissance faciale pour identifier les femmes qui se soulèvent contre les autorités et ne veulent plus porter le voile. La Russie cible également les opposant·es à la guerre contre l’Ukraine.
Nous n’en sommes pas là en Belgique. Mais l’on observe que l’usage de ces technologies de surveillance a tendance à se généraliser, petit à petit.
Exemples : les caméras de surveillance installées dans le quartier juif à Anvers pour prévenir une attaque terroriste ont ensuite servi à la police pour surveiller si les mesures sanitaires étaient bien respectées dans ce même quartier. Au départ, les caméras “ANPR” ont été installées en région bruxelloise pour lutter contre le terrorisme, leur usage s’est ensuite étendu au contrôle de la zone de basses émissions. Ces caméras peuvent aujourd’hui repérer des infractions routières.
Enfin, ces technologies biométriques sont très coûteuses (autour de 50.000 euros par caméra) et choisies au détriment des moyens humains.
QU’EST-CE QUE LA CAMPAGNE #PROTECT MY FACE ?
La campagne #Protect My face appelle le Parlement bruxellois à interdire la reconnaissance faciale sur son territoire. Aucune loi ne l’autorise en Belgique, mais des tests ont été réalisés et certains partis encouragent l’usage et le déploiement de ces technologies.
Les associations impliquées dans cette campagne espèrent donc sensibiliser le monde politique aux risques inhérents à ces technologies de surveillance. L’objectif est également de donner l’impulsion à un débat démocratique pour que tout·e citoyen·ne puisse s’informer et y prendre part. L’opacité entourant les tests déjà réalisés par la police fédérale et celle entourant les groupes de travail en cours sur la reconnaissance faciale ne sont pas compatibles avec un débat démocratique serein.
Elle pourrait avoir pour effet de museler les revendications légitimes de tous·tes les citoyen·nes.
Par ailleurs, cette technologie implique d’importants risques : piratages de ces données à caractère personnel très sensibles, erreurs et reproduction des discriminations sexistes ou racistes induites par les conceptions sociales dominantes et les institutions qui les vendent et les utilisent, menace d’un glissement vers une surveillance de masse.
POURQUOI LA CAMPAGNE #PROTECT MY FACE S’ADRESSE-T-ELLE AU PARLEMENT BRUXELLOIS?
A Bruxelles, comme dans d’autres grandes villes européennes, le réseau de caméras de surveillance s’étend continuellement. Un réseau utilisé notamment pour mettre en place des projets comme celui de la zone de basses émissions (LEZ) ou encore le projet encore embryonnaire de taxation kilométrique. Les communes bruxelloises installent elles aussi de nouveaux dispositifs de surveillance pour, par exemple, « lutter contre l’insécurité ». Ces images captées aux quatre coins de Bruxelles sont centralisées sur une plateforme gérée par la Région bruxelloise. Désormais en charge de la « prévention et sécurité » de la Région, Safe.brussels » s’est vue confiée de nouvelles responsabilités: elle élabore le plan régional de sécurité, coordonne les politiques de sécurité, encourage la centralisation de services administratifs des zones de police ainsi que le recours par celles-ci à la centrale d’achat pour l’acquisition de matériel.
Bref, en amont comme en aval, les autorités politiques régionales disposent de leviers importants pour contrer la reconnaissance faciale et pourraient, comme d’autres villes, San Francisco aux États-Unis ou Lausanne et Zurich en Suisse, interdire les systèmes de reconnaissance faciale dans l’espace public.
POURQUOI SIGNER LA PÉTITION?
Signez la pétition “Protect My face”! Faites du bruit autour de ce projet visant à interdire la reconnaissance faciale dans l’espace public bruxellois!
Si nous atteignons les 1000 signatures, nous pourrons directement interpeler le Parlement bruxellois lors d’une audition et imposer cette question à l’agenda politique. Cette technologie implique de nombreux risques pour les citoyen·nes. Nous plaidons pour qu’un débat démocratique se tienne sur ces choix qui orientent notre modèle de société.
Pour la signer en version papier, téléchargez le formulaire, remplissez le et envoyez le à democratie@parlement.brussels (en mettant en copie : ehardy@liguedh.be)