StopCovid : une alerte contre les discriminations
Publié le Par Fabrice Bluszez
dr
Le Club des juristes publie un texte signé par Marlène Schiappa, secrétaire d'Etat chargée de l'Egalité Femme Homme, Frédéric Potier et Jérôme Giusti, alertant contre le danger des discriminations dans la lutte contre l'épidémie de covid19.
Tout progrès technique n'est pas forcément utile, explique ce texte publié sur le blog du Club des juristes. Frédéric Potier est délégué interministérioel à la lutte contre le racisme, l'antisémitisme et la haine anti LGBT. Jérôme Giusti est avocat.
Depuis le début de la pandémie, les experts en technologies numériques et en algorithmes rivalisent de propositions pour lutter contre le Covid 19 et sauver des vies. Grâce à leurs dispositifs, de nombreuses avancées se produiront, et se produisent déjà. Mais ce n’est pas parce qu’une innovation est technologiquement possible qu’elle est forcément souhaitable.
En France, le débat en la matière s’est cristallisé autour de l’application Stop Covid, dont le Premier ministre a indiqué qu’il s’agissait à ce stade d’un projet non encore abouti et qui sera débattu le moment venu. Le secrétaire d’État au Numérique a assuré que cette application reposerait sur le volontariat et l’anonymat. Projet émanant du gouvernement, Stop Covid sera scruté : c’est heureux. Il sera disséqué par la presse : c’est légitime. Il devra recueillir l’adhésion des parlementaires : c’est indispensable. C’est la démocratie. La presse, la société civile, l’opposition, le Conseil constitutionnel, le Conseil d’État, la CNIL, le Défenseur des droits, la CNCDH : notre pays ne manque pas de vigies qui joueront pleinement leurs rôles. Mais au-delà du débat légitime – redisons-le – sur une application publique nouvelle, une problématique plus large émerge, celle du lien entre discriminations et essor des applications commerciales.
Ces perspectives effrayantes, dignes des meilleures séries de science-fiction, doivent nous alerter
En Pologne ou à Hong-Kong, certaines applications récolteraient déjà des séries de données personnelles, allant jusqu’à imposer une prise de selfies quotidiens pour s’assurer du respect du confinement. D’autres ambitionneraient d’accéder à votre historique de déplacements afin de vous attribuer une note, note qui chuterait après avoir croisé une personne suspecte d’infection. En fonction de la note obtenue, ces applications pourraient vous faire refuser l’entrée dans certains lieux et l’accès à certains services. Ces perspectives effrayantes, dignes des meilleures séries de science fiction, doivent nous alerter. En France, une application créée par des acteurs privés se proposerait d’attribuer un QR code de couleur aux salariés pour aider les managers à organiser le fonctionnement de leur entreprise. Après consultations des partenaires sociaux et modification du règlement intérieur de l’entreprise, ses créateurs envisagent qu’elle soit « rendue obligatoire à l’ensemble des salariés ». Il y a là un danger manifeste pour les libertés fondamentales. Si nous partageons tous l’objectif de sauver des vies, et que nous pouvons comprendre le désarroi de managers démunis face à une situation inédite, il est hors de question de cautionner des discriminations sous couvert d’innovation technologique. Si les informations ainsi récoltées servaient à l’usager uniquement, ce pourrait être, à la limite, un apport pour les personnes qui y souscriraient, leur permettant de faire leurs propres choix en conscience. Il en va complètement autrement d’un outil de gestion de ressources humaines exploitant des critères que la loi définit pourtant clairement comme discriminants ! Rappelons que « Constitue une discrimination toute distinction opérée entre les personnes » selon les articles 225-1 à 225-4 du Code Pénal, via 27 critères dont l’âge, le sexe, l’origine, l’état de santé, le handicap, la grossesse, la situation de famille, la vulnérabilité économique, l’apparence physique…
Le renseignement d’informations personnelles, notamment médicales, n’est jamais un acte anodin
Le renseignement d’informations personnelles, notamment médicales, n’est jamais un acte anodin. La collecte de données personnelles obéit à une législation nationale et européenne exigeante et pointue afin de protéger précisément ceux qui en ont le plus besoin. Envisageons ici quelques exemples concrets : quid du salarié atteint du VIH qui, comme il en a parfaitement le droit, n’en a jamais informé son employeur ? Serait-il obligé de mentir pour obtenir un « scoring » faible, au risque de faire naître un climat de défiance et de suspicion avec son employeur ? De même, passer du temps dans les transports en commun pourrait également entraîner un « malus » en raison d’un « risque » accru. Or, qui passe du temps dans les transports en commun ? Ceux qui habitent loin de leur lieu de travail et ne possèdent pas de voiture. Les plus pauvres et les plus précaires des travailleurs. Lors d’un entretien d’embauche, il est interdit à un employeur potentiel de poser des questions sur la grossesse, l’orientation sexuelle, les croyances religieuses et convictions philosophiques ou les origines d’un candidat : une application ne risque-t-elle pas de s’en affranchir si cela lui permet d’établir une corrélation avec la maladie. Qui peut alors assurer que la couleur d’un QR code ne servira pas demain de critère d’embauche, de promotions ?
N’entérinons pas, du fait de notre anxiété face à la crise, un recul manifeste des droits en cette période troublée
Dans son avis du 24 avril 2020 portant sur le projet d’application mobile « StopCovid », la CNIL indique « que le volontariat signifie qu’aucune conséquence négative n’est attachée à l’absence de téléchargement ou d’utilisation de l’application » . Il n’est pas admissible qu’un salarié puisse être inquiété s’il ne désire pas répondre au questionnaire de santé qui lui sera demandé dans le cadre de l’application de gestion de ressources humaines. Le Code du travail dispose qu’« aucun salarié ne peut être sanctionné, licencié ou faire l’objet d’une mesure discriminatoire pour avoir refusé de répondre à une question sur son état de santé ou son handicap ». Certains diront alors : « Je n’ai rien à cacher, cela ne me dérange pas. ». Les associations de consommateurs, de malades et de victimes, se sont battues longtemps pour obtenir ce « droit à l’oubli ». N’entérinons pas, du fait de notre anxiété face à la crise, un recul manifeste des droits en cette période troublée. Le principe même du respect de la vie privée, c’est de ne pas trier entre ceux qui ont « quelque chose à cacher » et ceux qui n’en ont pas encore.
Aujourd’hui, ces applications émergent dans le monde du travail. Qu’en sera-t-il demain ? Pour entrer au cinéma, dans une salle de sport, ou dans un musée, faudra-t-il d’abord décliner son âge, son code postal, sa profession, sa température des huit derniers jours, la date de votre dernier examen de santé ? Ce qu’on tolère aujourd’hui pour le Covid-19, on le tolérera demain pour un autre motif.
L’innovation technologique n’est ni « bonne » ni « mauvaise » en elle-même, elle déploie une logique qui lui est propre comme l’a analysé le grand sociologue Jacques Ellul dans Le système technicien. Mais surtout, ses effets résultent d’abord de ce que les humains en font ! Leur usage appelle de notre part une responsabilité accrue et une hauteur de vue dépassant la séduction immédiate opérée par des solutions technologiques irréfléchies. Rester fidèles à nos principes et nos valeurs dans l’action, telle est la voie étroite, mais praticable, sur laquelle nous devons cheminer.