Download on the App Store

L'utilisation de la reconnaissance faciale par les forces de l'ordre est-elle acceptable ?

Déclaration d'ouverture

Déclaration d'ouverture de l'équipe affirmative

Mesdames et messieurs, imaginez un monde où un enfant disparu est retrouvé en moins de trois heures grâce à une caméra dans une gare. Où un terroriste repéré à l’aéroport ne parvient pas à franchir les contrôles. Où les victimes de violences conjugales sont protégées en temps réel grâce à un système qui identifie leur agresseur à distance. Ce n’est pas de la science-fiction : c’est la reconnaissance faciale au service de l’ordre public.

Nous soutenons fermement que l’utilisation de la reconnaissance faciale par les forces de l’ordre est acceptable, dès lors qu’elle est strictement encadrée, transparente et soumise au contrôle démocratique. Elle n’est pas un outil de surveillance oppressive, mais un levier de protection collective — à condition de bien l’utiliser.

Notre position repose sur trois piliers solides.

Premièrement, la reconnaissance faciale sauve des vies. Dans les situations d’urgence — attentats, enlèvements, fugitifs armés — chaque seconde compte. À Londres, en 2022, la police a utilisé cette technologie pour interpeller un suspect impliqué dans une fusillade en moins de 15 minutes. Sans elle, il aurait pu disparaître dans la foule. L’efficacité opérationnelle n’est pas une commodité : c’est une obligation morale quand la sécurité des citoyens est en jeu.

Deuxièmement, elle dissuade la criminalité. Savoir qu’un espace public est doté d’un système capable d’identifier un individu recherché modifie le calcul rationnel du délinquant. Comme les radars routiers ont réduit les excès de vitesse, la reconnaissance faciale peut réduire les actes de violence ou de vandalisme dans les zones sensibles. Ce n’est pas de la punition préventive, mais de la prévention intelligente.

Troisièmement, elle peut être encadrée sans sacrifier nos libertés. Contrairement à ce que prétend l’opposition, la technologie n’est ni bonne ni mauvaise en soi : tout dépend de son usage. En France, la CNIL exige déjà une autorisation préalable pour tout déploiement. Des lois comme le RGPD imposent des limites strictes. Nous ne plaidons pas pour une surveillance généralisée, mais pour une utilisation ciblée, proportionnée et réversible — comme toute mesure policière légitime.

Certains diront : « Une fois la porte ouverte, on ne pourra plus la refermer. » Mais fermer la porte par peur qu’elle ne grince, c’est refuser de construire une maison plus sûre. Nous choisissons de construire — avec des garde-fous, des fenêtres ouvertes à la transparence, et des serrures actionnées par la démocratie.


Déclaration d'ouverture de l'équipe négative

Et si votre visage devenait votre matricule ? Si chaque sortie dans la rue était enregistrée, analysée, archivée — non pas parce que vous avez commis un crime, mais simplement parce que vous existez ? Voilà où nous mène la reconnaissance faciale déployée par les forces de l’ordre : non pas vers plus de sécurité, mais vers moins de liberté.

Nous affirmons sans ambivalence que l’utilisation de la reconnaissance faciale par les forces de l’ordre n’est pas acceptable, car elle porte atteinte aux fondements mêmes de notre République : la présomption d’innocence, le droit à l’anonymat dans l’espace public, et l’égalité devant la loi.

Notre rejet repose sur trois constats irréfutables.

Premièrement, cette technologie normalise la surveillance de masse. Utiliser la reconnaissance faciale dans les rues, les gares ou les manifestations, c’est transformer chaque citoyen en suspect potentiel. Or, dans un État de droit, on ne surveille pas tout le monde pour attraper quelques coupables. C’est l’inverse : on cible les suspects avec des preuves, pas des pixels. En Chine, ce système classe les citoyens selon leur « score de fiabilité ». En France, on nous dit que ce n’est « que temporaire ». Mais l’histoire nous enseigne que les exceptions deviennent vite la règle.

Deuxièmement, les algorithmes sont profondément biaisés. Des études du MIT et de Stanford ont montré que les taux d’erreur atteignent jusqu’à 35 % pour les femmes noires, contre moins de 1 % pour les hommes blancs. Traduisez : une femme voilée ou un adolescent noir risque d’être arrêté, interpellé, humilié — non pour ce qu’il a fait, mais pour ce qu’il ressemble à un algorithme mal entraîné. Est-ce cela, la justice ? Non. C’est de la discrimination automatisée, légitimée par la technologie.

Troisièmement, il n’y a ni consentement, ni transparence, ni recours effectif. Combien d’entre vous savent où, quand et comment leurs visages sont capturés, stockés, croisés avec d’autres bases de données ? Personne. Et si l’algorithme se trompe, qui corrige l’erreur ? Qui efface votre « profil criminel » numérique ? Personne. On nous promet un encadrement, mais en pratique, les tests pilotes se multiplient sans débat public, sans vote du Parlement, sans contrôle indépendant.

On nous dit que c’est pour notre sécurité. Mais une sécurité qui coûte notre liberté n’est pas une sécurité : c’est une cage dorée. Et nous refusons d’y entrer — même au nom du bien commun.


Réfutation de la déclaration d'ouverture

Réfutation de l'équipe affirmative

L’équipe négative nous a peint un tableau apocalyptique : des citoyens transformés en matricules, des rues devenues prisons numériques, des algorithmes racistes semant l’injustice. Émouvant ? Sans doute. Convaincant ? Hélas, non. Car derrière cette rhétorique anxiogène se cache une confusion fondamentale : confondre l’outil avec son usage abusif.

Premièrement, l’idée que la reconnaissance faciale normalise la surveillance de masse repose sur une fausse prémisse : que toute utilisation policière équivaut à une surveillance généralisée. Or, notre position n’a jamais défendu un tel scénario. Nous parlons d’un déploiement ciblé — dans les aéroports, les gares à haut risque, lors d’alertes enlèvement ou de recherches de terroristes. Ce n’est pas surveiller tout le monde : c’est chercher quelqu’un. L’équipe adverse oppose un épouvantail — la Chine, les scores sociaux — comme si la France allait demain copier un régime autoritaire. Mais où est la preuve que l’encadrement démocratique est impossible ? Le RGPD existe. La CNIL sanctionne. Le Conseil constitutionnel censure. Dire que « l’exception devient la règle » est une prophétie, pas un argument.

Deuxièmement, concernant les biais algorithmiques, nous reconnaissons pleinement ce problème — mais nous ne le fuyons pas, contrairement à nos adversaires qui préfèrent jeter le bébé avec l’eau du bain. Plutôt que d’interdire purement et simplement la technologie, pourquoi ne pas exiger des audits indépendants, des jeux de données diversifiés, et des seuils de confiance élevés avant toute interpellation ? C’est exactement ce que font plusieurs pays européens : améliorer, pas abandonner. Refuser d’utiliser un outil parce qu’il est imparfait, c’est refuser de progresser. Demain, grâce à ces mêmes critiques, les algorithmes seront plus justes — mais seulement si on les utilise sous contrôle, pas si on les enterre.

Enfin, l’argument du « consentement absent » méconnaît la nature même de la police. Quand un agent vous interpelle, vous ne signez pas un formulaire de consentement. La légitimité vient de la loi, pas de votre accord individuel. Bien sûr, il faut transparence : informer les citoyens des zones couvertes, publier les rapports d’usage, permettre des recours. Et c’est précisément ce que notre modèle propose. L’équipe négative semble croire que, sans reconnaissance faciale, nous vivons dans un paradis de liberté. Mais qu’en est-il des caméras de vidéosurveillance déjà omniprésentes ? Sont-elles moins intrusives parce qu’elles ne reconnaissent pas ? Non — elles observent, enregistrent, archivent. La reconnaissance faciale, utilisée avec rigueur, peut même réduire le nombre d’interpellations arbitraires en remplaçant le profilage humain par une identification objective.

En somme, l’équipe négative défend une liberté abstraite au détriment d’une sécurité concrète. Nous, nous choisissons de protéger les victimes potentielles — sans renoncer à nos principes, mais en les adaptant à l’ère numérique.


Réfutation de l'équipe négative

L’équipe affirmative nous vend un rêve technologique : des caméras bienveillantes qui sauvent des enfants, arrêtent des terroristes et respectent nos libertés. Malheureusement, la réalité est moins lisse que leur pitch marketing. Leur raisonnement repose sur trois illusions dangereuses.

Première illusion : celle de l’efficacité salvatrice. Oui, à Londres, un suspect a été arrêté en 15 minutes. Mais combien d’erreurs ont conduit à des interpellations humiliantes, voire traumatisantes ? Combien de faux positifs ont détourné les forces de l’ordre de véritables menaces ? Une étude de l’Université de Cardiff (2023) montre que dans 81 % des cas, les systèmes de reconnaissance faciale de la police britannique ont identifié à tort des innocents. Sauver une vie est noble — mais pas si cela en sacrifie dix autres à l’autel de la précipitation algorithmique. Et surtout : où est la preuve que ces résultats n’auraient pas été obtenus par des méthodes traditionnelles, plus lentes mais plus fiables ? L’urgence ne justifie pas n’importe quel moyen — surtout quand le moyen est défaillant.

Deuxième illusion : celle de la dissuasion. Nos adversaires comparent la reconnaissance faciale aux radars routiers. Mais un radar mesure une vitesse objective ; un algorithme interprète un visage flou, partiellement caché, sous un mauvais éclairage. Plus grave : la dissuasion ne fonctionne que si le criminel croit qu’il sera pris. Or, les délinquants savent masquer leurs visages, changer d’apparence, ou opérer hors des zones couvertes. Résultat ? Le crime ne disparaît pas — il se déplace. Pendant ce temps, ce sont les citoyens ordinaires qui paient le prix : fouillés, interrogés, fichés pour avoir ressemblé à un suspect. C’est la banalisation de l’exception : on traite tout le monde comme un coupable potentiel, au nom d’une sécurité illusoire.

Troisième illusion : celle de l’encadrement parfait. Ah, le fameux « strict encadrement démocratique » ! Comme si les lois suffisaient à empêcher les dérives. Rappelons-nous : la loi française interdit déjà la géolocalisation massive… et pourtant, en 2022, la police a utilisé des IMSI-catchers (faux relais téléphoniques) lors de manifestations sans autorisation judiciaire. Les tests pilotes de reconnaissance faciale à Marseille, Nice ou Paris se sont déroulés sans vote parlementaire, souvent sans information claire du public. L’encadrement théorique est un vœu pieux tant que les garde-fous ne sont pas contraignants, transparent et sanctionnables. Or, aujourd’hui, qui punit un préfet qui déploie illégalement cette technologie ? Personne.

Pire encore : l’équipe affirmative présente la reconnaissance faciale comme un simple « outil », neutre moralement. Mais un outil qui transforme l’espace public en zone de suspicion permanente n’est pas neutre. Il redéfinit notre rapport à la liberté. Dans une démocratie, on ne doit pas avoir à justifier sa présence dans la rue. Or, avec cette technologie, votre visage devient une donnée à vérifier, un risque à évaluer, un profil à croiser. Ce n’est pas de la protection — c’est de la préemption de l’innocence.

Nous ne refusons pas le progrès. Mais nous refusons qu’il se fasse au détriment des plus vulnérables, sous couvert de rationalité technique. Car une société qui sacrifie ses libertés fondamentales pour un sentiment de sécurité finit par perdre les deux.


Contre-interrogatoire

Contre-interrogatoire de l'équipe affirmative

Troisième orateur de l’équipe affirmative (à l’adresse du premier orateur de l’équipe négative)
Vous affirmez que toute utilisation de la reconnaissance faciale normalise la surveillance de masse. Admettez-vous qu’en cas d’alerte enlèvement, identifier un suspect dans une foule grâce à cette technologie pourrait sauver la vie d’un enfant — sans pour autant instaurer un régime chinois ?

Premier orateur de l’équipe négative
Nous admettons que le sauvetage d’un enfant est une urgence morale. Mais cela ne justifie pas un système automatisé, opaque et discriminant. Des méthodes ciblées — témoins, caméras non biométriques, appels à témoins — existent. La reconnaissance faciale n’est ni nécessaire, ni proportionnée, même dans l’urgence.

Troisième orateur de l’équipe affirmative (au deuxième orateur de l’équipe négative)
Vous citez des taux d’erreur élevés chez les femmes noires. Seriez-vous d’accord pour dire que le remède n’est pas l’interdiction, mais l’obligation d’audits publics, de jeux de données inclusifs et de seuils de confiance stricts — comme on le fait pour les médicaments avant leur mise sur le marché ?

Deuxième orateur de l’équipe négative
En théorie, oui. Mais en pratique, ces audits n’existent pas, ne sont pas indépendants, et surtout, ne changent rien au fait que le visage d’un citoyen devient une donnée policière sans son consentement. On ne régule pas une intrusion fondamentale — on l’interdit.

Troisième orateur de l’équipe affirmative (au quatrième orateur de l’équipe négative)
Si demain un algorithme atteignait 99,9 % de précision, sans biais, avec transparence totale et recours juridique immédiat… accepteriez-vous alors son usage ciblé dans les aéroports ou lors d’attentats ?

Quatrième orateur de l’équipe négative
Non. Parce que même un système parfait pose une question de principe : dans une démocratie, l’espace public doit rester un lieu où l’on n’a pas à prouver son innocence. Votre hypothèse suppose que la sécurité justifie toujours l’abandon de la liberté. C’est une pente glissante, même pavée de bonnes intentions.

Résumé du contre-interrogatoire de l’équipe affirmative

Mesdames et messieurs, l’équipe négative vient de nous livrer une position radicale : aucun usage n’est acceptable, même en cas de vie en jeu, même avec perfection technique, même avec garanties démocratiques. Autrement dit, leur rejet n’est pas pragmatique — il est idéologique. Ils préfèrent un enfant disparu à un algorithme utile. Ils refusent d’imaginer que la technologie puisse être améliorée, parce qu’ils ont déjà décidé qu’elle était intrinsèquement toxique. Mais une société qui sacrifie ses capacités de protection au nom d’une pureté absolue n’est pas libre — elle est paralysée. Et la paralysie, face au mal, est une forme de complicité.


Contre-interrogatoire de l'équipe négative

Troisième orateur de l’équipe négative (à l’adresse du premier orateur de l’équipe affirmative)
Vous dites que la reconnaissance faciale est « strictement encadrée ». Alors expliquez-nous : pourquoi les tests pilotes à Marseille ou à Paris se sont-ils déroulés sans vote du Parlement, sans débat public, et sans possibilité pour les citoyens de s’opposer ? Est-ce cela, votre « contrôle démocratique » ?

Premier orateur de l’équipe affirmative
Ces expérimentations étaient limitées dans le temps et l’espace, conformes aux autorisations de la CNIL. Elles visaient justement à évaluer les garde-fous nécessaires. L’absence de loi spécifique ne signifie pas l’absence de droit — le cadre général du RGPD et du code de la sécurité intérieure s’applique.

Troisième orateur de l’équipe négative (au deuxième orateur de l’équipe affirmative)
Vous comparez la reconnaissance faciale aux radars routiers. Mais un radar ne vous identifie pas personnellement — il mesure une vitesse. Acceptez-vous que, contrairement au radar, cette technologie transforme chaque citoyen en suspect fiché, dont le visage est croisé avec des bases de données criminelles… sans qu’il ait commis la moindre infraction ?

Deuxième orateur de l’équipe affirmative
Nous n’acceptons pas cette caricature. Le croisement n’a lieu que si un seuil de correspondance très élevé est atteint, et uniquement avec des bases de personnes recherchées — pas avec tout le fichier des permis de conduire. Ce n’est pas du fichage : c’est de la recherche ciblée, comme un avis de recherche, mais numérique.

Troisième orateur de l’équipe négative (au quatrième orateur de l’équipe affirmative)
Enfin, si la reconnaissance faciale est si efficace, pourquoi la police britannique a-t-elle un taux de faux positifs de 81 % ? Et si vous répondez « parce qu’ils l’utilisent mal », alors pourquoi croire que la France fera mieux — alors même que nos forces de l’ordre manquent de moyens, de formation, et parfois de contrôle judiciaire ?

Quatrième orateur de l’équipe affirmative
Parce que nous ne reproduisons pas leurs erreurs. Nous proposons un modèle européen : audit algorithmique obligatoire, interdiction de l’usage en manifestation, obligation d’un mandat judiciaire pour tout stockage. L’Angleterre a agi dans la précipitation ; nous, nous voulons agir avec sagesse.

Résumé du contre-interrogatoire de l’équipe négative

L’équipe affirmative nous promet un monde où la reconnaissance faciale serait « propre », « encadrée », « européenne ». Mais leurs propres exemples montrent le contraire : des tests secrets, des lois absentes, des dérives déjà documentées. Ils disent « nous ferons mieux que les Britanniques », mais ils n’ont aucune preuve que les policiers seront formés, que les algorithmes seront justes, ou que les préfets respecteront les règles. Leur foi dans l’encadrement ressemble à celle d’un nageur qui croit qu’un requin portera un harnais de sécurité.

Pire : ils admettent que le croisement de données se fait… mais seulement « avec des gens recherchés ». Sauf que la définition de « recherché » s’étend chaque jour — manifestants, migrants, activistes. Une fois le système installé, la tentation est irrésistible. Et c’est là que réside le vrai danger : non pas la technologie en soi, mais la facilité avec laquelle elle étouffe la liberté, une exception à la fois.


Débat libre

Premier orateur de l’équipe affirmative
Mesdames et messieurs, l’équipe adverse continue de nous parler de cages dorées… mais pendant ce temps, des enfants disparaissent, des femmes fuient leurs agresseurs, et des terroristes circulent librement. Leur idéalisme est admirable — leur inertie, dangereuse.

Ils disent que la reconnaissance faciale transforme tout citoyen en suspect. Mais savez-vous ce qui transforme vraiment un citoyen en suspect ? C’est quand un policier, fatigué, stressé, décide à l’œil nu qu’un jeune homme en capuche “a une tête de délinquant”. La technologie, encadrée, remplace ce jugement subjectif par une identification objective. Ce n’est pas plus intrusif — c’est plus juste.

Et puis, soyons clairs : si demain un algorithme sans biais, approuvé par la CNIL, sauve votre enfant dans une gare, allez-vous refuser son aide au nom d’un principe abstrait ? Ou allez-vous dire merci ?

Première oratrice de l’équipe négative
Merci pour cette image touchante… mais la réalité n’est pas un spot publicitaire. Oui, on peut imaginer des scénarios héroïques. Mais la vraie question n’est pas “peut-elle sauver quelqu’un ?” — c’est “à quel prix collectif ?”

Parce que chaque fois qu’on déploie cette technologie, on normalise l’idée que votre visage n’est plus votre propriété, mais une donnée publique à scanner, stocker, croiser. Et ce n’est pas théorique : à Marseille, en 2021, des manifestants pacifiques ont été identifiés et convoqués au commissariat… non pour avoir commis un acte, mais simplement pour avoir été là.

Et ne me parlez pas d’“identification objective” ! Un algorithme qui se trompe 35 % du temps sur les femmes noires n’est pas objectif — il est raciste par conception. Corriger ça prendra des années. En attendant, qui paie le prix ? Pas vous. Pas moi. Mais ceux qui ressemblent “trop” à un profil.

Deuxième orateur de l’équipe affirmative
Ah, donc selon vous, tant que la technologie n’est pas parfaite, il faut l’interdire ? Alors brûlons aussi les ambulances, puisqu’elles causent parfois des accidents. Arrêtons les vaccins, parce qu’ils ont des effets secondaires.

Non. La démarche rationnelle, c’est d’améliorer en utilisant — sous contrôle. Et justement, la reconnaissance faciale permet de réduire les interpellations abusives fondées sur le profilage racial. Un officier ne devine plus : il vérifie. S’il y a erreur, on corrige. Mais aujourd’hui, combien d’innocents sont arrêtés sans aucune vérification, juste parce qu’ils “ne ressemblent pas au quartier” ?

Vous parlez de Marseille ? Très bien. Parlons-en. Ces manifestants ont été identifiés grâce à des caméras classiques couplées à des témoignages humains — pas à la reconnaissance faciale, qui n’était même pas activée. Votre exemple tombe à l’eau.

Deuxième oratrice de l’équipe négative
Intéressant : maintenant, la reconnaissance faciale n’était même pas utilisée ? Alors pourquoi la tester en grandeur nature si elle n’est “pas prête” ?

Et surtout, pourquoi les forces de l’ordre refusent-elles systématiquement de publier les taux de faux positifs de leurs systèmes ? Parce qu’ils savent que ces chiffres discréditeraient leur propre usage.

Quant à votre analogie avec les vaccins… franchement. Un vaccin protège celui qui le reçoit. La reconnaissance faciale, elle, vous surveille sans votre accord, pour protéger… qui ? L’État ? Les autres ? Vous instrumentalisez la sécurité comme prétexte pour étendre le contrôle.

Et puis, une dernière chose : si cette technologie est si précieuse, pourquoi ne pas la limiter aux suspects déjà identifiés par un juge ? Pourquoi balayer toute une foule ? Parce que ce n’est pas de ciblage dont il s’agit — c’est de pêche au chalut.

Troisième orateur de l’équipe affirmative
“Pêche au chalut” ? Non. C’est de la recherche de l’aiguille dans la botte de foin. Et contrairement à vous, nous ne préférons pas laisser l’aiguille planter des innocents plutôt que de fouiller la botte.

Vous dites qu’on ne devrait utiliser la reconnaissance faciale qu’après autorisation judiciaire. Très bien. Imaginons : un terroriste s’enfuit après un attentat. Faut-il attendre 48 heures qu’un juge signe un papier pendant qu’il traverse la frontière ? L’urgence opérationnelle existe — et votre rigidité juridique la nie.

Et puis, parlons hypocrisie : vous utilisez quotidiennement des algorithmes de reconnaissance faciale — pour déverrouiller votre téléphone, taguer vos amis sur Instagram. Mais dès que c’est l’État qui l’utilise, même sous contrôle, c’est Orwell ? Il y a une incohérence morale ici.

Troisième oratrice de l’équipe négative
Ah, l’argument ultime : “vous le faites bien chez vous !” Mais il y a une différence fondamentale : je choisis de déverrouiller mon téléphone. Je peux désactiver la reconnaissance. Je peux supprimer mon compte.

Face à la police, ai-je le choix ? Dois-je porter un sac sur la tête pour préserver mon anonymat ? Et si je le fais, serai-je accusé de “comportement suspect” ?

C’est exactement le piège : on installe la technologie, puis on punit ceux qui tentent de s’y soustraire. Quant à l’urgence… oui, elle existe. Mais la démocratie, c’est précisément de ne pas sacrifier nos principes sous pression. Sinon, chaque crise devient une excuse pour grignoter un peu plus de liberté.

Et rappelez-moi : qui a déclaré l’état d’urgence après Charlie Hebdo… et l’a prolongé pendant deux ans ? Exactement.

Quatrième orateur de l’équipe affirmative
Donc, selon vous, même face à une menace avérée, l’État doit rester les mains liées ? C’est une vision tragiquement passive de la protection publique.

Nous ne demandons pas un État tout-puissant. Nous demandons un État compétent. Et dans un monde où les criminels utilisent la technologie — deepfakes, cryptomonnaies, drones — vouloir lutter avec des méthodes du XXᵉ siècle, c’est condamner les victimes à l’impuissance.

Et puis, arrêtons ce double langage : vous acceptez les caméras de vidéosurveillance partout, mais pas qu’elles soient intelligentes ? C’est comme dire : “Filmez-moi, mais ne regardez pas ce vous filmez.”

La reconnaissance faciale, encadrée, c’est moins de suspicion aveugle, plus de précision, plus de justice. Refuser cela, ce n’est pas défendre la liberté — c’est la rendre vulnérable.

Quatrième oratrice de l’équipe négative
Compétence ne rime pas avec omniprésence. Un État compétent, c’est un État qui forme ses policiers, qui investit dans l’enquête humaine, qui protège les lanceurs d’alerte — pas un État qui espère qu’un algorithme résoudra ses carences structurelles.

Et quant à vos caméras “intelligentes”… attention au mot. Une caméra intelligente, c’est une caméra qui décide pour vous qui est dangereux. Or, dans une démocratie, ce n’est pas à une machine de juger — c’est à des juges, des lois, des preuves.

Enfin, une dernière image : imaginez que chaque citoyen doive porter une étiquette RFID, comme dans un supermarché. On nous dirait : “C’est pour éviter le vol.” Mais personne n’accepterait.

Alors pourquoi accepterions-nous que notre visage devienne cette étiquette ? Parce qu’elle est invisible ? Parce qu’elle est “moderne” ?

Non. Parce qu’une fois que la porte est ouverte, même entrouverte, il est trop tard pour la refermer. Et nous, nous préférons la garder fermée — au nom de ceux qui n’ont pas les moyens de se défendre quand l’erreur arrive.


Conclusion finale

Conclusion de l'équipe affirmative

Depuis le début de ce débat, nous n’avons jamais dit : « Déployez partout, tout de suite, sans garde-fous. »
Nous avons dit : « Utilisons intelligemment, encadrons strictement, contrôlons démocratiquement. »

Face à une menace terroriste, à un enfant disparu, à un agresseur en fuite, rester les bras croisés au nom d’une pureté libertaire abstraite, c’est choisir de regarder le mal se propager. Ce n’est pas du courage — c’est de la complaisance.

L’équipe négative a peint la reconnaissance faciale comme un monstre inévitable. Mais ce n’est pas le visage de la technologie qui est monstrueux — c’est l’absence de volonté politique pour la dompter. Or, nous avons montré que cette volonté existe : le RGPD, la CNIL, les audits algorithmiques, les seuils de confiance, les zones limitées… Tout cela est possible. Et surtout, nécessaire.

Ils craignent les biais ? Nous aussi. C’est pourquoi nous exigeons qu’ils soient corrigés — non en interdisant l’outil, mais en l’améliorant grâce à son usage transparent. Ils redoutent la surveillance de masse ? Nous aussi. C’est pourquoi nous refusons toute généralisation et plaidons pour un ciblage précis, temporaire, justifié.

Et puis, soyons honnêtes : nos adversaires acceptent que leur téléphone déverrouille leur visage, que leurs photos soient triées par IA, que leurs données circulent dans des nuages privés… mais refusent qu’un algorithme aide la police à retrouver un violeur. Où est la cohérence ?

Nous ne demandons pas de renoncer à la liberté. Nous demandons de la réinventer à l’ère numérique. Une liberté qui protège aussi bien le droit de se promener en paix que celui de ne pas disparaître sans trace.

Alors, juges, public : face à un monde où le danger est réel, choisissons-nous de fermer les yeux… ou d’ouvrir les bons ?
L’utilisation encadrée de la reconnaissance faciale par les forces de l’ordre n’est pas seulement acceptable — elle est morale, urgente, et profondément humaine.


Conclusion de l'équipe négative

Ce débat n’était pas sur la technologie.
Il était sur ce que nous sommes prêts à devenir pour nous sentir en sécurité.

L’équipe affirmative nous a proposé un marché : « Donnez-nous vos visages, et nous vous donnerons la paix. » Mais une paix achetée au prix de la suspicion permanente n’est pas la paix — c’est la résignation.

Ils parlent d’« encadrement ». Mais où sont les lois votées au Parlement ? Où sont les sanctions contre les préfectures qui expérimentent dans l’ombre ? Où est le recours pour celui dont le visage a été confondu, fiché, traîné dans la boue par un algorithme aveugle ? L’encadrement qu’ils décrivent est un mirage juridique, pas une réalité opérationnelle.

Ils disent que la reconnaissance faciale réduit le profilage. Mais remplacer un policier biaisé par un algorithme biaisé, ce n’est pas progresser — c’est automatiser l’injustice. Et quand une femme noire a 35 fois plus de chances d’être arrêtée à tort, ce n’est pas un « bug » : c’est un système qui reproduit les hiérarchies sociales sous couvert de neutralité technique.

Et surtout, ils oublient un principe fondateur : dans une démocratie, on ne doit rien justifier pour exister dans l’espace public. Votre visage n’est pas une donnée à scanner. Votre présence dans la rue n’est pas une anomalie à vérifier. L’innocence ne devrait jamais avoir à se prouver — encore moins à une machine.

Accepter cette technologie, même « ciblée », c’est ouvrir une brèche. Et l’histoire nous le rappelle : chaque brèche devient une autoroute. Demain, ce sera pour les manifestations. Après-demain, pour les contrôles d’identité aléatoires. Puis pour noter les « comportements suspects ».

Nous ne sommes pas contre la sécurité. Nous sommes contre une sécurité qui divise, discrimine, et désarme moralement la citoyenneté.

Alors, juges, public : voulez-vous vivre dans une société où votre visage vous précède comme un casier judiciaire… ou dans une société où vous êtes libre tant que vous n’avez rien fait de mal ?

Refuser la reconnaissance faciale policière, ce n’est pas rejeter le progrès — c’est défendre l’humanité. Et c’est pourquoi nous affirmons, avec force : non, ce n’est pas acceptable.