Vous non plus, vous ne savez pas quoi mettre pour votre prochaine manif’ ? Et si vous testiez nos astuces make-up pour éviter les caméras de surveillance les plus évoluées…
« Ma mère était à Tianjin (Chine), tu peux à la fois faire tes courses et payer avec ton visage, et prendre une amende parce que tu n’as pas traversé sur le passage piéton… Et là, il y a Dati qui propose d’installer des caméras de surveillance à reconnaissance faciale à Paris. » « Moi, il y a des caméras où je travaille (Puteaux), mon iPhone est à reconnaissance faciale, mon mec veut qu’on ait un Google Home chez nous… C’est foutu, je suis fichée. » « Je demande à ma meuf son avis entre deux bouteilles de Champ’ l’autre jour en prévision d’un dîner… Bref, tout ça sur WhatsApp et le lendemain je reçois des pubs pour Bollinger sur Instagram ?! » Discussion d’apéro’ entre une tablée de potes à une terrasse du 17e. Le sujet du jour ? Ces innombrables traces que nous laissons en ligne à chaque fois que nous likons, postons, réagissons… Le tout capté par des machines multiples, presque invisibles…
C’est dans cette ambiance de parano préapocalyptique que débarque son essai À la trace, minutieuse enquête sur « les nouveaux territoires de la surveillance » de notre confrère Olivier Tesquet (un ancien de ces pages, aujourd’hui à Télérama). Dans son essai, aussi éclairant que flippant, il nous détaille comment toutes ces données sont accumulées grâce à nos téléphones portables, ces petites « boîtes noires » addictives, et aux caméras de reconnaissance faciale, symboles du siècle qui arrive : celui du capitalisme de la donnée. Nous retrouvons l’auteur, aussi prolixe sur les réseaux sociaux que discret sur sa vie perso (on sait simplement qu’il aime les voyages dans le froid, les disques post-punk et le tatouage), dans une brasserie chic de la place Alma-Marceau (ce sceptique de la vie 2.0 enchaîne sur des interviews à BFM et à France24)…
À lire votre livre, la reconnaissance faciale ressort comme le symbole le plus abouti de la surveillance contemporaine. Doit-on en avoir peur ?
Olivier Tesquet : La reconnaissance faciale est le nouvel avatar de la surveillance sous le double effet d’une poussée complice des industriels et des gouvernements. Aujourd’hui, les États, avec l’assistance d’entreprises, reprennent le contrôle sur les corps. C’est la raison pour laquelle la reconnaissance faciale inquiète autant. Elle est largement perçue comme une invasion de l’intimité qui dégrade la perception de l’altérité
Comment ça ?
Emmanuel Levinas écrivait que « l’expression du visage se mue en résistance totale à la prise ». La reconnaissance faciale prétend abattre cette résistance en portant un gène historiquement eugéniste, emprunté à des pseudosciences du XIXe siècle telles que la phrénologie ou la physiognomonie, qui prétendaient deviner le caractère d’une personne en se basant sur ses traits physiques ou sa ressemblance animale. Aujourd’hui, cette nouvelle technologie, qui est une interprétation informatique, ne tolère que les visages parfaitement symétriques. Dès que le visage est imparfait, la reconnaissance faciale a beaucoup de mal à le lire. Heureusement !
Ces technologies arrivent en France ?
Inexorablement. Pour la justifier, nos gouvernants agitent l’épouvantail chinois en y opposant un modèle français d’intelligence artificielle éthique. Même si la différence entre le régime politique chinois et français est importante, le rapport à la technologie présente plus de similitudes que l’on veut bien s’avouer. Quand un colonel de gendarmerie présente la reconnaissance faciale comme « un contrôle d’identité permanent et général », les finalités de contrôle social sont parfaitement assumées. Il existe toutefois des foyers de lutte. À l’échelle des villes par exemple, il y a des victoires, des expérimentations interdites. La reconnaissance faciale est interdite dans un lycée à Marseille ainsi que des capteurs intelligents pouvant capter les bruits suspects dans un quartier populaire à Saint-Étienne. On note l’apparition de foyers de lutte collective portés par des associations ou la société civile même s’ils sont peu nombreux pour l’instant. Le vrai défi concerne la possibilité, pour les États, d’agir collectivement à un niveau mondial face à des entreprises transnationales qui pénètrent facilement les frontières.
Mais comment s’y extirper ?
La possibilité de refuser la reconnaissance faciale est complètement écartée de la négociation. Aujourd’hui, le débat se porte uniquement sur les modalités du déploiement. Le gouvernement et les industriels parlent d’acceptabilité. L’acceptabilité de la technologie est une manière pudique de parler de son imposition car à partir du moment où les modalités sont discutées, cela rend la technologie inéluctable.
Et quelle est l’efficacité de maquillage, comme le préconise l’activiste russe Grigory Bakunov, pour déjouer cette surveillance ?
N’oublions pas que le maquillage anti-reconnaissance faciale a notamment été développé par Adam Harvey qui travaille sur les moyens artistiques d’échapper à la surveillance et qui a développé un outil appelé CV Dazzle : un book de mode composé de looks anti-reconnaissance faciale grâce à des coiffures extravagantes et un maquillage outrancier. Cela pose une question très intéressante : l’important est-il de disparaître ou d’essayer d’apparaître autrement et de troubler la perception de la machine ? Les arts numériques, le maquillage et les autres stratégies sont autant de petits grains de sable à mettre dans les rouages. Reste à savoir à quel moment ces grains de sables feront-ils un tas…
« L’IMPORTANT EST-IL DE DISPARAÎTRE OU D’ESSAYER D’APPARAÎTRE AUTREMENT ? »
Sans même aller jusqu’à la reconnaissance faciale, il y a nos smartphones…
Tout le monde tient pour acquis aujourd’hui, notamment à travers tous les scandales successifs autour de Facebook ces dernières années, que les informations que nous donnons sur les réseaux sociaux sont exploitées par ces réseaux à des fins commerciales. Il y a deux aspects négligés au sujet du téléphone, cet objet de surveillance porté en permanence comme un prolongement de soi. Il y a d’un côté cette multitude d’applications qui aspirent des informations intimes. Cela renvoie notamment à cette question rituelle, qui est peut-être une légende urbaine, de savoir si notre téléphone est capable d’écouter nos conversations. Jusqu’ici, les études menées font état de l’absence de preuve, ce qui ne veut pas dire que ce n’est pas le cas, d’autant plus que les chercheurs ont découvert que certains outils filment l’écran lors de notre navigation. En plus, nous savons qu’un certain nombre d’applications captent des informations qui ne sont pas toujours indiquées de manière explicite dans les conditions d’utilisation, qui ne sont quant à elles pas toujours respectées. D’un autre côté, il y a toute l’économie souterraine des grandes plateformes. Je pense notamment aux courtiers en données. Prenez Facebook. L’affaire Cambridge Analytica il y a deux ans a montré que les données pouvaient être récupérées à des fins de manipulations électorales. Facebook avait partagé nos informations avec 69 000 entreprises tierces.
GUIDE PRATIQUE MAKE-UP ANTI RECONNAISSANCE FACIALE
1 Masquer la zone où se croisent nez, yeux et front
2 Masquer la zone oculaire
3 Barrer son visage de manière asymétrique
4 Utiliser des motifs graphiques, des formes géométriques à fort contraste,
des lignes inclinées et courbées et des rayures
5 Inverser les zones de lumière et les zones d’ombre du visage
(triangles noir et blanc sur les pommettes)
Donc il faut se méfier autant de Facebook que de ces milliers d’autres entreprises.
Regardez Clearview : il a été découvert que l’entreprise avait aspiré trois milliards de photos sur les réseaux sociaux et Internet pour constituer la plus grande base de données de la planète à des fins de reconnaissance faciale ! L’entreprise a ensuite vendu ces photos à des forces de police en violant de manière routinière les conditions d’utilisation des plateformes parce que Facebook interdit théoriquement l’aspiration systématique des photos. Cerise sur le gâteau : elle a été financée par Peter Thiel, grand argentier conservateur de la Silicon Valley et… membre du conseil d’administration de Facebook.
On parle de surveillance de masse, d’impératifs sécuritaires… Est-ce le cas en France ?
Aujourd’hui, nos gouvernements ont une foi infinie dans la technologie et son imposition au nom de cet impératif sécuritaire. Jusqu’aux années 70, l’État était chargé d’assurer l’ordre public qui ne correspondait pas exactement à la sécurité. L’ordre public était très bien défini dans le code pénal tandis que la sécurité, notion plus tardive, est plus floue et malléable. Il y a donc cet impératif de sécurité, qui s’est amplifié depuis 30 ans, avec l’idée selon laquelle la sécurité serait la première de nos libertés. Cet élément de langage a fini par infuser aussi bien à gauche qu’à droite et la technologie serait justement là pour mettre en œuvre cet impératif.
Donc nous sommes bien dans une surveillance de masse ?
Il est compliqué de savoir où nous sommes sur l’échelle de la surveillance en raison de l’atomisation des dispositifs. Pour le déterminer, il faut déjà être capable de cartographier notre environnement : identifier les courtiers en données, nommer les marchands de la surveillance… Il faut pouvoir nommer les États et les entreprises qui traquent nos informations intimes soit à des fins publicitaires, soit à des fins sécuritaires parce que ces acteurs partagent en définitive la même obsession pour la prédiction des comportements et l’automatisation. On en revient à la société de vigilance d’Emmanuel Macron. L’objectif suprême est d’automatiser la prédiction des comportements. Demain, les algorithmes commerciaux serviront à prévenir les risques pour la sécurité. Un individu pourra par exemple être arrêté de manière préventive sur la base de son historique d’achat sur Amazon.
« NOUS VIVONS DANS UN MONDE OÙ L’ON NOUS REFUSE LES ESPACES DE RETRAIT ! »
Que doit-on concéder ? La liberté ? La sécurité ?
L’opposition entre la sécurité et la liberté est très factice. Dans l’imposition des textes sécuritaires de ces trente dernières années, l’impératif de sécurité est justifié par le risque terroriste. En langage législatif, on parle de lois d’exception, d’état d’urgence. En langage technologique, on parle de cadre expérimental. Cela procède en fait de la même logique : créer des zones hors du droit à des fins de lutte contre le terrorisme mais aussi de contrôle social car ces mesures sécuritaires recomposent en profondeur les comportements, les rapports entre les individus, et les rapports entre les communautés. Même dans nos démocraties occidentales, nous n’avons absolument pas un rapport libéral à la technologie qui voudrait que la technologie donne du pouvoir à l’individu et renforce ses libertés. Le discours va dans ce sens mais des technologies sont développées aujourd’hui pour restreindre les libertés individuelles, notamment la biométrie ou la reconnaissance faciale.
Finalement, que nous reste-t-il ?
Il est intéressant de se demander inversement si la surveillance peut aller encore plus loin. L’exemple le plus frappant de degré élevé d’invasion de la surveillance est le traitement expérimental contre la schizophrénie. Il existe une pilule se dissolvant au contact des sucs gastriques et libérant une notification pour aviser le médecin traitant ou les proches que le patient a respecté l’observance thérapeutique. C’est la pénétration ultime du corps. Nous vivons dans un monde où on nous refuse de plus en plus les espaces de retrait. Ce phénomène se matérialise dans un certain nombre d’exemples, notamment les caméras Ring d’Amazon. Non seulement, il y a une incitation financière en cas d’achat avec un remboursement mais Amazon vous rembourse davantage si le champ de la caméra permet de capter une zone plus large. En d’autres termes, plus la caméra est intrusive, plus l’incitation économique à vous équiper est forte. Aujourd’hui, nous nous retrouvons avec l’invasion du domicile par les assistants vocaux et les objets connectés, une invasion du visage par la reconnaissance faciale, une invasion des rapports sociaux par Instagram ou d’autres plateformes. Or, ces trois espaces sont censés être sanctuarisés et régis par des libertés fortes. Une fois concédés ces espaces, que nous reste-t-il ? Pas grand chose. En fait, il reste la délibération collective.
La solution est donc une sorte de délibération collective ?
Nous sommes face à une accélération d’imposition des normes technologiques. Avant l’imposition du titre d’identité en France, il n’était pas envisageable dans l’opinion publique d’accepter de devoir justifier en permanence son identité. Aujourd’hui, non seulement nous présentons tous notre passeport biométrique aux frontières, mais nous serions tous collectivement prêts à accepter la reconnaissance faciale. Cela revient à considérer l’ensemble de la population comme potentiellement dangereuse et à parachever cette obsession pour la vigilance.
Certes, il y a une obsession pour la vigilance mais on se surveille aussi les uns, les autres…
Nous avons banalisé cette pratique du stalking. Aussi, nous nous conformons de plus en plus à des attendus sociaux, c’est-à-dire que nos actions tendent à se conformer à la représentation informatique que les plateformes ou les États ont de nous. Il y a une incitation très forte à se conformer à ces attendus sociaux, à ne surtout pas dévier de cette ligne parce qu’un comportement déviant par rapport aux prédictions technologiques reviendrait à déclencher une alerte. Nous vivons dans des catégories enfermées sur Instagram avec des emojis prédéterminés. Nous avons une obsession, à travers nos téléphones, d’être les maîtres de nos vies et de nos actions. Dans ce mécanisme, nous sommes rendus complices de cet asservissement car nous sommes des cobayes largement consentants.
Vous voulez dire que ces emojis nous modèlent ?
Le lien est très profond entre la technologie et la définition de notre identité. Nous sommes dans la configuration où notre identité numérique nous modèle. Il y a des exemples très concrets de dépossession. Deux femmes tombent enceintes, font des fausses couches et continuent à recevoir des publicités pendant des mois sur leurs bébés marketing, le double numérique de leur bébé. D’un strict point de vue algorithmique, ces femmes sont programmées pour être mères sans aucune prise en compte de la réalité physiologique. Cet exemple de dépossession est très violent mais il existe des exemples beaucoup plus diffus de dépossession et de recomposition. J’ai un téléphone, j’ai un compte Instagram, un compte Twitter et un compte Facebook. Quand je retranscris mon expérience en signal informatique, que je poste une photo d’un restaurant à la mode, est-ce parce que j’aime vraiment la gastronomie ou parce que je suis attendu précisément à cet endroit ?
Si Julian Assange était l’exemple le plus radical d’échappatoire à la surveillance, où vous situez-vous?
Julian Assange, avant qu’il ne se réfugie dans l’ambassade d’Equateur, où il était très surveillé, se réclamait d’une idéologie qui emprunte au mouvement cyberpunk des années 90. Ce mouvement entendait santuariser la vie privée des citoyens contre l’intrusion de l’État, en préconisant notamment de chiffrer toutes les conversations. Je dirai que je suis tempérément cypherpunk !
Et concrètement, vous faites quoi ?
J’utilise des technologies de chiffrement des serveurs et des données pour communiquer. Je refuse l’irruption d’objets connectés chez moi. J’essaie d’adopter – et c’est difficile – une forme d’hygiène numérique incompatible avec les assistants vocaux ou le téléphone au lit. Ce sont des gestes assez banalisés, significatifs que l’idéologie du chiffrement s’ouvre et n’est plus exclusivement réservé à des techniciens informatiques. Rassurant donc…
À La Trace (Premier Parallèle, 266 pages, 18 €)
Entretien Anaïs Delatour
Photos : Julien Grignon
MUHA Antoine L’hebrellec
Model Irina Novy @Metropolitan Paris
Vidéo Greg Kozo
Merci Le Cinéma 7 Batignolles – Allée Colette Heilbronner, 75017 Paris