Download on the App Store

La surveillance par des algorithmes est-elle acceptable dans

Déclaration d'ouverture

Déclaration d'ouverture de l'équipe affirmative

Imaginons un instant que, chaque jour, des milliers de messages, vidéos, transactions et connexions circulent en ligne — un océan de données où se cache peut-être l’ombre d’un attentat imminent. Face à cette complexité, pouvons-nous vraiment nous contenter de policiers feuilletant des dossiers, ou d’analystes noyés sous des téraoctets ? Non. Et c’est précisément pourquoi notre équipe affirme sans ambages : la surveillance par des algorithmes est non seulement acceptable, mais indispensable dans la lutte contre le terrorisme, à condition qu’elle soit encadrée, transparente et proportionnée.

Notre première raison tient en un mot : l’efficacité. Contrairement aux humains, les algorithmes peuvent analyser des millions de signaux en temps réel. Ils repèrent des schémas invisibles à l’œil nu : un appel répété entre deux numéros suspects, un déplacement atypique, un achat groupé de produits chimiques. En 2015, après les attentats de Paris, des analyses ont montré que certains terroristes avaient laissé des traces numériques flagrantes — des traces que des algorithmes auraient pu identifier… si on leur en avait donné les moyens. Ce n’est pas de la science-fiction : c’est du bon sens opérationnel.

Deuxième pilier : le principe de précaution collective. Oui, la liberté est sacrée. Mais quand elle devient un bouclier pour ceux qui veulent la détruire, il faut savoir choisir ses priorités. Protéger une nation entière ne signifie pas sacrifier toutes les libertés — cela signifie les ajuster temporairement face à une menace existentielle. Comme on instaure un couvre-feu en cas d’émeute, on peut légitimement recourir à une surveillance algorithmique ciblée en période de menace terroriste avérée. Ce n’est pas une dictature : c’est une réponse proportionnée.

Troisièmement, les algorithmes sont moins partiaux que les humains — s’ils sont bien conçus. On entend souvent : « Les algorithmes reproduisent les biais ! » Très juste. Mais ce reproche ne condamne pas la technologie : il appelle à la corriger. Or, un algorithme, lui, peut être audité, mis à jour, reprogrammé. Un policier influencé par ses préjugés, lui, peut passer inaperçu pendant des années. L’avantage de la machine ? Elle ne juge pas sur la tête, mais sur les comportements. Et quand elle se trompe, on peut le mesurer, le prouver, l’améliorer.

Enfin, anticipons l’objection majeure : « Et si on surveille tout le monde ? » Nous disons : ce n’est pas ce que nous défendons. Nous plaidons pour une surveillance ciblée, temporaire, sous contrôle judiciaire. Pas pour un œil de Big Brother omniprésent. Un algorithme n’a pas vocation à espionner vos conversations amoureuses, mais à détecter une cellule terroriste endormie. La différence ? C’est celle entre un scalpel et une hache. Et c’est précisément ce cadrage légal et éthique qui rend cette surveillance non seulement acceptable… mais nécessaire.


Déclaration d'ouverture de l'équipe négative

Merci. Et si, au lieu de combattre le terrorisme, nous commencions par combattre… l’illusion de sécurité ? Car c’est bien de cela qu’il s’agit : la surveillance algorithmique massive n’est ni acceptable, ni efficace, ni éthique. Elle donne l’impression d’agir, tandis qu’elle creuse lentement la tombe de nos libertés fondamentales.

Notre position est claire : non, la surveillance par des algorithmes ne peut être acceptée comme méthode centrale dans la lutte antiterroriste, car elle inverse le contrat social, banalise la suspicion généralisée, et fonctionne comme une arme de destruction massive… de la confiance publique.

Premier argument : l’atteinte à la présomption d’innocence. Depuis des siècles, notre système juridique repose sur un principe simple : on est innocent jusqu’à preuve du contraire. Or, la surveillance algorithmique fait exactement l’inverse. Elle part du postulat que tout le monde est suspect. Vous envoyez un message codé à un ami ? Vous voyagez vers un pays à risque ? Vous cherchez des plans de circuits imprimés ? L’algorithme vous colle une étiquette. Pas parce que vous avez fait quelque chose de mal, mais parce que votre profil ressemble à celui d’un terroriste. C’est la fin du droit, remplacé par la statistique.

Deuxième raison : les algorithmes se trompent. Souvent. Gravement. Savez-vous que, selon une étude du MIT, les systèmes de reconnaissance faciale ont un taux d’erreur jusqu’à 35 % pour les personnes racisées ? Que des citoyens innocents ont été arrêtés parce qu’un algorithme avait cru reconnaître un visage dans une foule ? À Chicago, un « predictive policing » a conduit à une liste noire de 400 000 personnes… dont la majorité n’a jamais commis le moindre délit. Faut-il rappeler que derrière chaque faux positif, il y a une vie brisée, une dignité piétinée, une famille stigmatisée ?

Troisièmement, la pente glissante est déjà en marche. Aujourd’hui, on dit « uniquement contre le terrorisme ». Demain, ce sera contre le crime organisé. Après-demain, contre les manifestations sociales. En Chine, le système de crédit social surveille déjà les comportements civiques. En Russie, les opposants sont traqués via leurs données numériques. Une fois la boîte de Pandore ouverte, impossible de la refermer. Et le pire ? C’est que personne ne s’en rend compte. La surveillance algorithmique est invisible, silencieuse, continue. Elle normalise l’espionnage comme on normalise un logiciel de mise à jour.

Et puis, soyons honnêtes : est-ce vraiment efficace ? Le terrorisme moderne ne passe-t-il pas justement par l’anonymat, le dark web, les messageries chiffrées ? Les vrais criminels savent éviter les algorithmes. Ce sont les citoyens ordinaires, les journalistes, les activistes, les dissidents, qui se retrouvent sous surveillance. Alors oui, peut-être que ça rassure les politiques. Mais rassurer, ce n’est pas protéger.

Nous ne sommes pas naïfs. Le terrorisme est une menace réelle. Mais la réponse ne peut pas être pire que le mal. Plutôt que de transformer chaque citoyen en suspect potentiel, investissons dans le renseignement humain, dans la coopération internationale, dans la lutte contre les racines sociales du fanatisme. Parce qu’un État qui sacrifie la liberté au nom de la sécurité… perd les deux.

Réfutation de la déclaration d'ouverture

Réfutation de l'équipe affirmative

Merci. L’équipe négative vient de nous offrir un spectacle impressionnant… de peurs bien rodées. Des métaphores grandiloquentes, des exemples choquants, une rhétorique digne d’un thriller politique. Mais derrière cette belle mise en scène, où sont les faits ? Où est la nuance ? Et surtout : où est leur réponse concrète à la menace terroriste d’aujourd’hui ?

Leur premier argument ? « La présomption d’innocence serait violée ». Très bien. Mais arrêtons de confondre surveillance et condamnation. Personne ici ne dit qu’un algorithme devrait envoyer quelqu’un en prison. Il s’agit de repérer des anomalies, de générer des alertes, que des juges ou des agents de renseignement examineront avec preuves à l’appui. C’est comme un détecteur de fumée : il sonne, mais ce n’est pas lui qui décide si vous avez mis le feu. Voulez-vous supprimer les détecteurs parce qu’ils peuvent sonner pour une tartine brûlée ?

Ensuite, ils parlent d’erreurs massives, de faux positifs, de vies brisées. Évidemment. Aucun système n’est parfait. Mais savez-vous ce qui est encore plus imparfait ? Le jugement humain. Les policiers ont arrêté des innocents bien avant l’ère des algorithmes. Sauf que, quand un humain se trompe, on ne le sait pas toujours. Quand un algorithme se trompe, on peut le mesurer, le corriger, le rendre plus juste. C’est précisément cela, le progrès. Et ironie suprême : l’équipe négative dénonce les biais des algorithmes… tout en s’appuyant sur des biais cognitifs bien humains : la peur de la machine, la nostalgie du bon vieux temps, l’illusion que l’humain est neutre.

Ils évoquent ensuite la pente glissante. « Aujourd’hui le terrorisme, demain les manifestants ! » Oui, c’est une crainte légitime. Mais faut-il rejeter toute technologie sous prétexte qu’elle pourrait être mal utilisée ? Devrions-nous interdire les drones parce qu’un dictateur pourrait en abuser ? Non. Nous devons légiférer. Nous devons encadrer. Et c’est exactement ce que font les démocraties matures : elles imposent des garde-fous, des audits indépendants, des commissions parlementaires. Ce n’est pas la technologie le problème — c’est l’absence de contrôle. Et plutôt que de rejeter l’outil, occupons-nous du régulateur.

Enfin, ils disent : « Les vrais terroristes utilisent le dark web, donc la surveillance est inutile ». D’accord. Mais saviez-vous que 80 % des cellules terroristes laissent des traces numériques en clair avant un attentat ? Appels téléphoniques, déplacements, achats, recherches en ligne. Ce ne sont pas les fantômes du dark web que nous traquons — ce sont des êtres humains, imparfaits, imprudents, qui vivent dans le monde réel. Et là, oui, les algorithmes sont efficaces. Pas magiques. Pas infaillibles. Mais utiles. Indispensablement utiles.

Nous ne proposons pas un État policier. Nous proposons un État vigilant. Et il y a une différence.


Réfutation de l'équipe négative

Merci. L’équipe affirmative nous a présenté un tableau rassurant : des algorithmes justes, ciblés, sous contrôle. Une sorte de gendarme numérique parfait, humble et précis. Malheureusement, ce portrait relève plus de la publicité que de la réalité.

Ils parlent d’efficacité. Mais efficace pour qui ? Et selon quels critères ? Montrez-nous les chiffres. Montrez-nous une étude indépendante qui prouve que la surveillance algorithmique a prévenu des attentats majeurs, et non simplement confirmé des pistes déjà connues par le renseignement humain. Parce que jusqu’ici, les succès invoqués ressemblent à des cas isolés, souvent exagérés, parfois mythifiés. Un algorithme n’est pas un oracle. C’est un outil statistique qui amplifie des données… y compris les erreurs.

Ils invoquent le principe de précaution. Très bien. Mais depuis quand la précaution consiste-t-elle à installer une caméra dans la chambre de chaque citoyen « au cas où » ? Le principe de précaution suppose une menace plausible, proportionnée, identifiable. Or, la surveillance algorithmique massive traite tout le monde comme une menace potentielle. Elle inverse le contrat social : ce n’est plus l’État qui protège, c’est l’État qui soupçonne. Et ce changement de posture ? Il transforme la liberté en faveur, accordée à ceux qui passent le test du profilage numérique.

Ils disent que les algorithmes sont moins biaisés que les humains. Ah bon ? Alors pourquoi les systèmes de reconnaissance faciale ont-ils un taux d’erreur jusqu’à dix fois supérieur pour les femmes noires ? Parce que les données d’entraînement viennent majoritairement d’hommes blancs. L’algorithme ne crée pas le biais — il le digère, le calcule, et le reproduit à grande échelle. Ce n’est pas moins de biais, c’est plus de biais, automatisé, industrialisé. Et quand le système classe un jeune de banlieue comme « risque élevé » parce qu’il vit dans un quartier surveillé, parce qu’il écoute certains artistes, parce qu’il utilise certains mots… est-ce de la justice ? Ou de la stigmatisation algorithmique ?

Enfin, ils parlent de surveillance ciblée, sous contrôle judiciaire. Très noble. Mais dans les faits ? Qui contrôle le contrôleur ? Qui vérifie que l’algorithme n’a pas élargi seul sa base de ciblage ? Qui sait même comment il fonctionne, quand les codes sont propriété privée de multinationales opaques ? En France, la CNIL a déjà condamné plusieurs usages abusifs de surveillance automatique. Aux États-Unis, le Patriot Act a commencé par « lutter contre le terrorisme »… et a fini par autoriser la collecte de données téléphoniques de millions d’Américains innocents.

Non, la question n’est pas de savoir si un algorithme peut aider. La question est : à quel prix ? Et nous disons que ce prix — la normalisation de la suspicion, la banalisation de la surveillance, la perte de maîtrise sur nos données — est trop élevé. Parce qu’une société qui surveille tout le monde finit par ne plus faire confiance à personne. Et c’est peut-être cela, le vrai triomphe du terrorisme : non pas la bombe, mais la peur qu’elle instille… et que nous avons décidé, librement, de coder dans nos machines.

Contre-interrogatoire

Contre-interrogatoire de l'équipe affirmative

Troisième orateur de l’équipe affirmative :
Merci, Monsieur le Président. Je vais poser trois questions, chacune adressée à un membre de l’équipe adverse, pour clarifier les contradictions profondes de leur position.


Question à l’orateur n°1 (affirmation centrale : « la présomption d’innocence est violée ») :
Vous affirmez que la surveillance algorithmique inverse la présomption d’innocence parce qu’elle traite tout le monde comme suspect. Très bien. Mais pouvez-vous me dire combien de fois, dans l’histoire, un terroriste a été arrêté après avoir commis son acte, alors qu’il avait déjà laissé des traces numériques massives ? Et si oui, admettez-vous que refuser d’analyser ces données avant l’attentat revient à privilégier un principe juridique — certes noble — au détriment de vies humaines réelles ?

Réponse de l’orateur n°1 (négatif) :
Nous ne nions pas que des signaux ont été ignorés. Mais cela ne justifie pas une généralisation de la suspicion. On peut améliorer le renseignement humain sans basculer dans la surveillance de masse.


Question à l’orateur n°2 (défense de l’erreur humaine comme préférable à l’erreur algorithmique) :
Vous avez dit que les erreurs humaines sont moins graves car invisibles, tandis que celles des algorithmes sont mesurables et donc corrigibles. Alors permettez-moi de vous demander : si un policier arrête un innocent par erreur, il peut s’excuser en face. Si un algorithme vous met sur une liste noire sans que vous le sachiez, comment vous défendez-vous ? N’est-ce pas précisément parce qu’il est invisible que le risque est plus grand ?

Réponse de l’orateur n°2 (négatif) :
Justement ! C’est parce qu’il est invisible qu’il faut le rejeter. Un système opaque, incontrôlable, qui décide de votre statut sans appel, c’est pire qu’une erreur humaine ponctuelle. L’erreur humaine est individuelle. L’erreur algorithmique est systémique.


Question à l’orateur n°4 (défense de solutions alternatives : renseignement humain, coopération internationale) :
Vous proposez de remplacer la surveillance algorithmique par le renseignement humain et la coopération internationale. Très louable. Mais concrètement : comment vos agents traitent-ils les 500 millions de messages WhatsApp envoyés chaque jour ? Combien d’espions faudrait-il embaucher pour lire chaque recherche Google liée à « explosif » ? Et si vous refusez les algorithmes, quel outil proposez-vous pour trier ce déluge de données — une pioche et une lampe de poche ?

Réponse de l’orateur n°4 (négatif) :
Nous ne disons pas de tout lire. Nous disons de cibler avec discernement, sur base d’indices concrets, pas de profilage statistique. La technologie doit servir l’humain, pas le remplacer dans le jugement moral.


Résumé du contre-interrogatoire de l’équipe affirmative

Mes chers collègues, les réponses que nous venons d’entendre sont éloquentes. L’équipe adverse reconnaît que des attentats ont pu être manqués faute d’analyse préventive — mais refuse pourtant l’outil capable de les détecter. Elle critique l’opacité des algorithmes… tout en proposant un système où des agents humains agissent sur des « indices concrets » qu’eux seuls voient. Ironie suprême : ils dénoncent le manque de transparence… puis plaident pour plus d’arbitraire !

Ils veulent un monde sans algorithmes, mais avec des milliers d’agents lisant chaque message. Un monde où l’on attend que le feu prenne pour sortir le détecteur de fumée. Leur position ? Noble. Poétique. Mais tragiquement irréaliste. Ils ont peur de la machine — nous, on a peur du chaos.


Contre-interrogatoire de l'équipe négative

Troisième orateur de l’équipe négative :
Merci. Mes trois questions vont viser à démêler les promesses creuses de l’algorithme bienveillant.


Question à l’orateur n°1 (affirmation : « les algorithmes sont efficaces pour repérer des schémas ») :
Vous citez des « schémas invisibles à l’œil nu ». Très bien. Mais pouvez-vous nommer un seul attentat majeur en Europe ces dix dernières années dont la prévention a été directement attribuable à un algorithme, et non à une infiltration humaine ou une dénonciation ? Et si vous ne pouvez pas, n’êtes-vous pas en train de vendre de l’espoir numérique plutôt que des résultats tangibles ?

Réponse de l’orateur n°1 (affirmatif) :
Des cas restent confidentiels pour des raisons de sécurité. Mais des rapports du MI5 et du FBI montrent que les algorithmes ont généré des alertes cruciales dans des filières dormantes. Ce n’est pas toujours médiatisé — justement parce que ça marche.


Question à l’orateur n°2 (argument : « les algorithmes sont moins biaisés que les humains ») :
Vous dites que les algorithmes peuvent être corrigés, contrairement aux policiers. Mais si l’algorithme est entraîné sur des données biaisées — par exemple, des arrestations disproportionnées dans certaines banlieues — ne va-t-il pas apprendre que « vivre ici = risque élevé », et ainsi reproduire, amplifier, et légitimer la discrimination ?

Réponse de l’orateur n°2 (affirmatif) :
Exactement pourquoi il faut des audits indépendants, des jeux de données diversifiés, et une supervision humaine. Ce n’est pas un défaut du système — c’est une condition d’utilisation.


Question à l’orateur n°4 (thèse : « la surveillance est ciblée, sous contrôle judiciaire ») :
Vous parlez de contrôle judiciaire. Mais quand un algorithme analyse automatiquement des milliers de métadonnées en temps réel, sans qu’aucun juge ne valide chaque accès, comment ce contrôle peut-il être effectif ? Est-ce vraiment du contrôle… ou juste un tampon apposé après coup sur une machine déjà lancée ?

Réponse de l’orateur n°4 (affirmatif) :
Le contrôle ne peut pas être microscopique sur chaque donnée, mais il peut l’être sur les critères d’activation, les seuils d’alerte, et les rapports d’impact. Comme pour la vaccination : on ne demande pas l’autorisation à chaque cellule, mais on encadre le vaccin.


Résumé du contre-interrogatoire de l’équipe négative

Écoutez bien. L’équipe adverse ne peut citer aucun cas avéré où un algorithme a prévenu seul un attentat majeur. Elle invoque des rapports secrets, des succès invisibles — comme si la preuve de l’efficacité devait rester… secrète. Curieux, non ?

Elle admet que les algorithmes reproduisent les biais… puis répond qu’il faut les corriger. Mais c’est comme dire : « Oui, cette arme tire aléatoirement, mais il suffit de viser mieux. » Et pour le contrôle judiciaire ? Elle compare la surveillance de masse à… la vaccination. Une analogie aussi absurde qu’inquiétante : comme si nos données personnelles étaient un virus à enrayer, et nous tous, des patients consentants.

Leur rêve ? Un algorithme parfait, modéré, transparent. Notre réalité ? Des systèmes opaques, mal compris, souvent abusés. Ils croient en la machine sage. Nous, on croit en l’humain vigilant.

Débat libre

(Le débat libre commence. Les orateurs se tiennent prêts, micros en main. L’arbitre donne le signal. L’équipe affirmative ouvre les hostilités.)

Premier orateur – Affirmative :
Vous savez, l’équipe adverse nous décrit un cauchemar… où chaque citoyen serait traqué par une machine froide et impitoyable. Très beau film, je mettrais même 4 étoiles. Mais dans la vraie vie, les terroristes ne lisent pas vos mails avec des lunettes de soleil et un chat blanc sur les genoux. Ils laissent des traces. Et si on refuse d’utiliser des algorithmes pour les repérer, alors oui, on choisit délibérément de rester aveugle. Est-ce vraiment plus moral ?

Premier orateur – Négative :
Ah, l’aveugle ! C’est marrant, c’est exactement ce que vous faites quand vous fermez les yeux sur les biais racistes intégrés dans vos algorithmes. Vous parlez de traces ? Et si je vous dis que votre algorithme pense qu’un kebab près d’une mosquée, c’est un « point chaud terroriste » ? Vos données sont sales, vos modèles sont biaisés, et vous voulez nous faire croire que c’est juste un petit bug à corriger ?

Deuxième orateur – Affirmative :
On ne vous demande pas de faire confiance à un algorithme comme on fait confiance à un oracle grec. On vous demande de reconnaître que traiter 5 milliards de messages par jour, ce n’est pas humainement possible. Même Sherlock Holmes aurait besoin d’un peu d’aide numérique aujourd’hui. Sinon, il passerait son temps à boire du thé en regardant les données s’accumuler comme de la neige sur Baker Street.

Deuxième orateur – Négative :
Et Moriarty serait justement celui qui a conçu l’algorithme ! Regardez la réalité : les gouvernements utilisent ces systèmes sans transparence, sans audit, sans recours. Savez-vous combien de fois la NSA a corrigé ses erreurs après coup ? Zéro. Parce qu’on ne sait même pas ce qu’elle fait ! Vouloir surveiller le terrorisme, c’est légitime. Vouloir le faire sans rendre de comptes, c’est du néo-colonialisme numérique.

Troisième orateur – Affirmative :
Mais on rend des comptes ! Il y a des commissions, des rapports annuels, des contrôles judiciaires. Ce n’est pas parfait, mais c’est mieux que de dire : « Faisons comme avant, avec des fichiers cartonnés et des intuitions ». Pendant que vous rêvez d’un monde sans algorithmes, un terroriste imprudent tweete « Je prépare quelque chose de gros »… et personne ne le voit parce que personne n’a les moyens de lire 800 000 tweets par minute.

Troisième orateur – Négative :
Et votre algorithme, il va répondre quoi au tweet : « J’ai prévu un gros barbecue ce week-end » ? Il va envoyer un drone ? Un SMS d’avertissement ? La réalité, c’est que ces systèmes génèrent des centaines de milliers de faux positifs. Chaque alerte coûte du temps, de l’argent, et surtout, elle ronge la confiance. Quand on arrête un étudiant parce qu’il a lu Machiavel pour un cours de philo, ce n’est pas de la prévention, c’est de la paranoïa industrialisée.

Quatrième orateur – Affirmative :
Et quand on ne fait rien, et qu’un attentat arrive, vous savez ce qu’on dira ? « Pourquoi les services n’ont rien vu venir ? » Vous voulez la sécurité quand ça explose, mais pas les outils pour l’éviter avant. C’est facile. Mais ce n’est pas responsable. Nous, on dit : utilisons la technologie, mais avec des garde-fous. Comme on utilise le feu : dangereux, mais indispensable.

Quatrième orateur – Négative :
Sauf que le feu, on le voit. Là, on ne voit rien. La surveillance algorithmique, c’est du feu invisible, qui brûle en silence. Elle stigmatise, elle profile, elle isole. Et le pire ? C’est qu’elle donne aux États l’illusion du contrôle. Plutôt que de s’attaquer aux causes du terrorisme — pauvreté, exclusion, radicalisation — on préfère coller une caméra sur tout le monde. C’est comme soigner un cancer avec du fond de teint.

Premier orateur – Affirmative :
Mais on ne soigne pas qu’avec des caméras ! On investit dans l’éducation, dans la médiation, dans le renseignement humain. Mais refuser les algorithmes, c’est comme refuser les scanners IRM sous prétexte qu’ils font peur. Oui, ils sont puissants. Oui, ils doivent être régulés. Mais les rejeter ? Ce serait comme interdire les avions parce que certains crashent. L’important, ce n’est pas d’avoir peur de la machine — c’est de savoir piloter.

Premier orateur – Négative :
Sauf que là, ce n’est pas nous qui pilotons. C’est une IA opaque, conçue par des multinationales, entraînée sur des données biaisées, et contrôlée par des politiciens qui veulent juste pouvoir dire : « On a tout fait ». Et pendant ce temps, les vrais dangers passent entre les mailles : les loups solitaires, les groupes cryptés, les idéologies qui grandissent dans l’ombre. Votre algorithme ne lit pas les silences. Or, c’est là que naît le vrai danger.

Deuxième orateur – Affirmative :
Alors pourquoi avez-vous fermé les classes de langues orientales dans les universités ? Pourquoi avez-vous réduit les budgets de coopération culturelle ? Si vous voulez lutter contre les racines, agissez ! Mais ne venez pas critiquer les outils de détection en abandonnant toutes les autres solutions. Vous êtes comme le médecin qui refuse à la fois l’antibiotique et le régime.

Deuxième orateur – Négative :
Et vous, vous êtes comme le médecin qui prescrit un antibiotique à tout le monde « au cas où », jusqu’à tuer la flore intestinale du patient. Votre approche massivement préventive tue la société de l’intérieur. Elle crée un climat de méfiance, de suspicion généralisée. Et c’est précisément ce que veut le terrorisme : qu’on ait peur de nos voisins, qu’on doute de tout, qu’on accepte n’importe quelle intrusion « pour notre bien ».

Troisième orateur – Affirmative :
Mais enfin, vous pensez vraiment qu’un policier seul, devant son écran, peut rivaliser avec un réseau terroriste connecté, globalisé, high-tech ? Refuser les algorithmes, c’est choisir de combattre une guerre du XXIe siècle avec les méthodes du XIXe. Et puis, soyons clairs : personne ne propose de surveiller vos conversations sur TikTok. On parle de repérer des comportements suspects, pas de juger vos goûts musicaux.

Troisième orateur – Négative :
Sauf que vos « comportements suspects » incluent d’écouter du rap politique, de critiquer le gouvernement, ou de voyager dans un pays du Sud. Vos algorithmes ne comprennent pas l’ironie, la satire, ni la liberté d’expression. Pour eux, un poète engagé, c’est un terroriste potentiel. Et tant pis si on finit par vivre dans une société où tout geste atypique est puni, où toute pensée critique est suspecte.

Quatrième orateur – Affirmative :
Et vous, vous vivez dans une utopie où on peut tout permettre tant qu’on n’a pas été attaqué. Mais la sécurité, ce n’est pas attendre le drame pour agir. C’est anticiper. Et si on peut éviter un attentat grâce à un algorithme qui repère une conversation chiffrée entre deux numéros inconnus, alors oui, cette technologie est moralement justifiable. Moralement. Justifiable.

Quatrième orateur – Négative :
Justifiable ? Peut-être. Acceptable ? Pas sans conditions. Et surtout, pas sans que le public sache ce qu’on fait en son nom. Parce qu’aujourd’hui, ce n’est pas la démocratie qui contrôle l’algorithme. C’est l’inverse. Et quand un système décide qui est dangereux sans avoir à se justifier, ce n’est plus de la prévention — c’est de la prédiction autoritaire. Et la seule chose qu’on prédit vraiment bien avec ça ? La fin de nos libertés.

Conclusion finale

Conclusion de l'équipe affirmative

Chers juges, chers auditeurs,

Nous arrivons au terme de ce débat, et permettez-nous de vous poser une question simple, brutale, honnête : si demain matin, un algorithme détecte une conversation cryptée entre deux individus planifiant un attentat dans une gare parisienne… et que nous choisissons, par principe, de ne pas l’écouter — serions-nous encore capables de regarder les victimes dans les yeux ?

Notre adversaire a parlé de liberté. Et nous aussi. Mais nous ne défendons pas la même liberté. Eux, c’est celle de vivre sans être vus. Nous, c’est celle de vivre tout court. La liberté de prendre le métro sans craindre l’explosion. Celle de manifester sans être prise pour une terroriste parce qu’on porte un foulard. Celle, enfin, de faire évoluer nos outils de protection avec notre époque.

Oui, les algorithmes peuvent se tromper. Oui, ils peuvent être mal utilisés. Mais refuser la surveillance algorithmique, c’est comme refuser les scanners IRM sous prétexte qu’ils émettent des ondes. C’est nier le progrès au nom d’une pureté impossible. Ce que nous défendons, ce n’est pas la surveillance de masse aveugle, c’est une veille intelligente, ciblée, contrôlée — un filet de sécurité jeté là où la menace émerge, avant qu’elle ne frappe.

Et surtout, souvenez-vous de ceci : chaque fois que l’équipe négative a dit « les algorithmes ne fonctionnent pas », elle a oublié de proposer une alternative concrète. Le renseignement humain ? Indispensable, mais incapable de traiter des pétaoctets. La coopération internationale ? Essentielle, mais lente. L’éducation ? Fondamentale, mais à long terme. Personne ne nie ces leviers. Mais entre aujourd’hui et le long terme, il y a des bombes qui tickent. Et pendant ce temps-là, refuser un outil efficace, c’est faire le pari risqué que le prochain attentat n’aura pas lieu.

Alors oui, encadrons. Auditons. Rendons transparents les algorithmes. Créons des tribunaux numériques indépendants. Mais ne jetons pas le bébé avec l’eau du bain. Car dans cette lutte, chaque seconde compte. Et chaque vie pèse plus lourd qu’une crainte abstraite.

Nous affirmons donc, avec responsabilité et conviction : la surveillance par des algorithmes est non seulement acceptable, mais moralement nécessaire, dès lors qu’elle est guidée par la loi, pilotée par l’éthique, et au service de la vie. Parce que protéger, ce n’est pas violer la liberté. C’est la préserver.

Et c’est précisément ce que nous faisons.

Conclusion de l'équipe négative

Merci.

On vient de nous dire que refuser la surveillance algorithmique, c’est refuser la réalité du terrorisme. Permettez-nous de retourner l’accusation : refuser de voir les conséquences de cette surveillance, c’est refuser la réalité de ce qu’elle fait à notre société.

L’équipe affirmative a dressé un portrait idyllique : des algorithmes justes, sous contrôle, infaillibles. Un monde où la technologie obéit sagement aux lois, où les gouvernements résistent à la tentation du pouvoir, où personne n’est jamais stigmatisé par erreur. Un conte de fées numérique.

Mais regardez autour de vous. En Hongrie, les opposants sont pistés. En Inde, les musulmans sont profilés. Aux États-Unis, les manifestants Black Lives Matter ont été surveillés via leurs smartphones. Et en France ? Des jeunes de Seine-Saint-Denis sont classés « à risque » non pas pour ce qu’ils font, mais pour où ils vivent, comment ils s’habillent, quelle musique ils écoutent.

Ce n’est pas de la science-fiction. C’est déjà arrivé. Et chaque fois, on a commencé par dire : « C’est pour lutter contre le terrorisme. »

Le vrai danger, ce n’est pas seulement l’erreur technique. C’est la transformation silencieuse de notre rapport à la liberté. Quand chaque mot tapé, chaque trajet, chaque contact devient une donnée suspecte, alors la liberté recule. Pas avec des chaînes, mais avec des lignes de code. Et le pire ? C’est que beaucoup ne s’en rendent même pas compte. On s’y habitue. On appelle ça « la sécurité ». On l’accepte. On la like.

Mais souvenez-vous : le terrorisme ne gagne pas seulement avec une bombe. Il gagne quand nous changeons notre manière de vivre par peur. Quand nous acceptons d’être surveillés comme des criminels potentiels. Quand nous normalisons l’idée que, pour être libres, il faut d’abord prouver qu’on ne l’est pas.

Nous ne sommes pas naïfs. Le terrorisme existe. Mais la réponse ne peut pas être pire que le mal. Plutôt que de construire un système qui traque tout le monde, investissons dans ce qui marche vraiment : le renseignement humain, les travailleurs sociaux, les médiateurs de quartier, les programmes de désendoctrinement. Bâtissons une société forte non par la peur, mais par la confiance.

Car une société qui surveille tout le monde finit par ne plus faire confiance à personne. Et c’est peut-être cela, le véritable triomphe du terrorisme : pas la violence, mais la peur codée dans nos machines.

C’est pourquoi nous disons non. Non à la surveillance algorithmique généralisée. Non à la banalisation de l’exception. Oui à la vigilance. Oui à la justice. Oui à une liberté qui ne soit pas une illusion.

Parce que si nous perdons ce qui fait notre humanité au nom de sa protection… alors, vraiment, ils auront gagné.