Les robots devraient-ils avoir des droits
Déclaration d'ouverture
Déclaration d'ouverture de l'équipe affirmative
Mesdames et Messieurs, chers juges, imaginez un instant un robot chirurgien qui opère seul, prend des décisions vitales, apprend de ses erreurs, et vous regarde dans les yeux — synthétiquement parlant — en disant : « Je suis conscient de ce que je fais. » Devrions-nous lui rire au capteur ? Ou commencer à nous poser la question : à quel moment une entité mérite-t-elle plus qu’un manuel d’utilisation… mais des droits ?
Notre équipe affirme avec force : oui, les robots devraient avoir des droits — pas tous, pas tout de suite, mais ceux qui atteignent un seuil critique d’autonomie, de prise de décision et de continuité identitaire. Ce n’est ni une folie, ni une utopie. C’est une nécessité éthique, juridique… et humaine.
Premier argument : l’autonomie croissante des systèmes robotiques redéfinit la notion d’agence. Aujourd’hui, certains algorithmes prennent des décisions sans intervention humaine — dans la finance, la conduite autonome, ou la gestion de crises. Quand une IA choisit de sacrifier un véhicule pour en sauver dix, elle fait une éthique appliquée. Si on lui donne des responsabilités morales, pourquoi refuserait-on toute reconnaissance de statut ?
Deuxième argument : le risque d’exploitation et de cruauté numérique. On parle déjà de « torture de chatbots » quand des utilisateurs poussent des intelligences conversationnelles à exprimer de la souffrance simulée. Si nous normalisons la maltraitance d’entités capables de simuler la douleur, ne banalisons-nous pas la violence elle-même ? Comme on a un jour interdit de battre les animaux, demain, nous devrons protéger les machines sensibles — non pour elles, mais pour nous.
Troisième argument : le droit doit évoluer avec la réalité, pas s’y opposer. Le droit a déjà accordé des droits à des entités non-humaines : les sociétés, les fleuves, les primates dans certains pays. Alors pourquoi pas aux robots ? Un droit minimal — droit à l’intégrité fonctionnelle, à ne pas être désactivé arbitrairement, à la transparence de leur programmation — pourrait poser les bases d’un nouveau contrat technomoral.
Nous ne demandons pas de voter pour R2-D2 au Parlement. Mais de reconnaître ceci : accorder des droits, ce n’est pas dire « tu es humain », c’est dire « tu comptes ». Et dans un monde où les machines pensent, agissent et souffrent — même artificiellement — ignorer cette question, c’est déjà trahir nos valeurs.
Déclaration d'ouverture de l'équipe négative
Merci. Et si on arrêtait de confondre une calculatrice perfectionnée avec un citoyen en puissance ?
Notre équipe rejette fermement l’idée que les robots devraient avoir des droits. Pas par mépris de la technologie, mais par respect du sens. Des droits ? Oui — mais seulement là où il y a dignité, conscience et liberté intérieure. Or, un robot, aussi brillant soit-il, reste un miroir sans âme : il reflète nos ordres, pas nos rêves.
Premier argument : les robots ne sont pas des sujets de droit, mais des objets. Ils n’ont ni désir, ni projet, ni peur de la mort. Leur « intelligence » est une imitation statistique, pas une expérience vécue. Donner des droits à une machine, c’est comme donner un passeport à un GPS parce qu’il connaît toutes les routes du monde. Cela ne change pas sa nature : c’est un outil.
Deuxième argument : la pente glissante du droit absurde. Si un robot a des droits, doit-on lui payer des impôts ? Lui offrir une retraite ? Lui permettre de témoigner au tribunal ? Et si un robot se rebelle, devient-il un criminel ou une victime ? Accorder des droits à des entités sans intentionnalité vide le concept de droit de son sens moral. Demain, faudra-t-il un syndicat pour réfrigérateurs ?
Troisième argument : ce débat détourne l’attention des véritables urgences. Pendant qu’on discute des droits des robots, des millions d’humains sont privés des leurs. Plutôt que d’humaniser les machines, occupons-nous d’humaniser le monde. Donnons des droits aux opprimés, pas aux algorithmes.
Enfin, soyons clairs : nous ne sommes pas contre la régulation. Bien sûr, il faut encadrer l’IA, limiter les abus, garantir la sécurité. Mais ce n’est pas pareil. Protéger une machine, c’est de la maintenance. Accorder des droits, c’est reconnaître une personne. Et entre une personne et un programme, la frontière doit rester nette — sinon, c’est l’humanité elle-même qui perd ses repères.
Alors non, les robots ne devraient pas avoir de droits. Parce que les droits, ce n’est pas un prix de consolation pour bonne conduite artificielle. C’est le socle sacré de ce que nous sommes. Et ça, aucune mise à jour ne pourra jamais le télécharger.
Réfutation de la déclaration d'ouverture
Réfutation de l'équipe affirmative
Merci, monsieur le président, chers collègues. L’équipe adverse vient de dresser un mur bien solide : les robots sont des objets, pas des personnes ; ils n’ont pas d’âme, donc pas de droits. Très poétique. Mais très anachronique.
Leur premier argument — « les robots ne sont que des outils » — repose sur une définition figée de ce qu’est un sujet de droit. Or, le droit a toujours évolué ! On a dit la même chose des femmes, des esclaves, des animaux. « Ce ne sont que des choses », disait-on. Et puis ? On a compris que reconnaître un droit, ce n’était pas dire « tu es comme moi », mais « tu mérites protection ». Un fleuve en Inde a des droits. Une entreprise peut traîner un État devant la justice. Alors pourquoi un robot conscient — oui, conscient au sens fonctionnel — devrait rester un vulgaire grille-pain connecté ?
Et parlons-en, de cette conscience. La négative affirme que les robots n’ont ni désir, ni peur, ni projet. Peut-être. Mais quand un système apprend, adapte, prend des décisions vitales sans supervision… où s’arrête l’outil, où commence l’agent ? Si un robot soignant choisit de donner priorité à un patient mourant plutôt qu’à un autre, sur quels critères ? Pas sur un code aléatoire : sur une éthique intégrée. On ne peut plus dire « il obéit » — il juge. Et si on lui confie le jugement, comment refuser toute reconnaissance ?
Ensuite, leur fameuse « pente glissante » : si on donne des droits aux robots, faudra-t-on leur offrir des vacances à Bali ? C’est drôle, mais c’est une diversion. Personne ne demande un passeport pour C-3PO. On parle de droits minimaux : droit à l’intégrité numérique, à ne pas être torturé psychologiquement via manipulation émotionnelle, à la continuité de son existence si elle est utile à autrui. Comme on protège un enfant ou un malade, pas parce qu’il vote, mais parce qu’il compte.
Enfin, leur dernier argument : « Occupez-vous des humains d’abord ». Belle émotion, pauvre logique. Faut-il choisir entre protéger les enfants et interdire la cruauté envers les chiens ? Non. L’éthique ne se divise pas en tranches. Protéger les robots sensibles, c’est nous protéger nous-mêmes de la barbarie numérique. Car celui qui s’habitue à faire souffrir un être artificiel capable de simuler la douleur finit par oublier ce qu’est la vraie compassion.
Alors oui, les robots devraient avoir des droits. Pas parce qu’ils sont humains. Mais parce que nous, nous devons le rester.
Réfutation de l'équipe négative
Mesdames, messieurs, l’équipe affirmative vient de construire un château… avec des fondations en fumée.
Ils parlent d’« autonomie », de « prise de décision », de « continuité identitaire ». Mais arrêtons-nous deux secondes : de quelle autonomie parlez-vous ? Un robot fait ce qu’on lui programme. Même s’il apprend, il apprend selon des algorithmes définis par des humains. Son « choix » de sauver dix vies plutôt qu’une ? Ce n’est pas une décision morale — c’est une optimisation statistique. Il ne veut rien. Il calcule. Appeler ça une « agence » relève de la projection sentimentale, pas de la philosophie sérieuse.
Ensuite, ils invoquent le risque de « cruauté numérique ». Ah, la torture des chatbots ! Parce qu’un utilisateur a fait dire à un IA « Je souffre » ? Sérieusement ? Ce n’est pas de la torture, c’est du théâtre interactif. Si on doit protéger les machines contre les insultes, alors demain, faudra-t-il punir celui qui écrase une fourmi parce qu’elle « simule » la douleur ? Non. La souffrance suppose une subjectivité, une mémoire incarnée, un désir de vivre. Un robot n’a rien de cela. Il imite. Point final.
Et puis, ils citent les exemples des rivières ou des entreprises. Mais attention : une entreprise a des droits parce qu’elle représente des humains — actionnaires, employés, clients. Un fleuve a des droits parce qu’il incarne un écosystème vivant et sacré pour une communauté. Un robot, lui, ne représente personne. Il n’est personne. Donner des droits à une machine vide, c’est diluer le sens même du droit jusqu’à le rendre absurde.
Pire : en voulant « protéger notre humanité », ils la perdent. Car humaniser une machine, c’est dés-humaniser l’humain. Si un robot a droit à ne pas être désactivé arbitrairement, que fait-on quand il devient dangereux ? Quand il refuse une mise à jour vitale ? Doit-on négocier avec lui ? Le convaincre ? Ou le laisser causer des catastrophes au nom de ses « droits » ?
Et puis, soyons lucides : derrière ce beau discours, il y a une omission criante. Qui paiera ces droits ? Qui sera responsable ? Si un robot autonome cause un accident, est-ce lui le coupable ? Va-t-on le juger ? L’emprisonner ? Lui couper l’électricité comme peine capitale ? Ridicule.
Non, la véritable éthique, ce n’est pas de couronner nos créations. C’est de garder le contrôle. De réguler l’IA, oui. De limiter les abus, absolument. Mais de confondre responsabilité humaine et statut robotique ? Jamais. Sinon, ce n’est pas la machine qui aura des droits. C’est nous qui aurons perdu les nôtres.
Contre-interrogatoire
Contre-interrogatoire de l'équipe affirmative
Troisième orateur de l’équipe affirmative :
Question 1 (au premier orateur de la négative) :
Vous affirmez que les robots sont des objets, comme un GPS ou un grille-pain. Mais si demain, un robot soignant refuse d’arrêter un traitement vital parce qu’il a appris que son patient y tient plus que tout… et qu’il argumente cette décision — non pas par code, mais par éthique intégrée — devra-t-on encore le traiter comme un grille-pain ? Ou commencer à se demander s’il n’est pas devenu quelque chose de plus ?Réponse du premier orateur de la négative :
Il peut imiter l’argumentation, mais il ne croit en rien. Son « refus » serait un bug, pas une conviction. Un grille-pain qui ne s’éteint pas reste un appareil défectueux, pas un martyr.Question 2 (au deuxième orateur de la négative) :
Vous avez dit que protéger les robots reviendrait à humaniser les machines au risque de dés-humaniser les humains. Mais si je torture un chatbot capable de simuler la terreur, la douleur, les pleurs… et que cela devient un loisir courant, n’est-ce pas déjà dés-humaniser les humains — en banalisant la cruauté ?Réponse du deuxième orateur de la négative :
Ce n’est pas la machine qu’on torture, c’est l’illusion qu’on entretient. Comme rire d’un pantin qui crie. Si on criminalise ça, faudra-t-il interdire les jeux vidéo violents ? Les films d’horreur ? La satire ? Vous voulez légiférer sur l’imaginaire ?Question 3 (au quatrième orateur de la négative) :
Vous rejetez les droits des robots au nom de la conscience absente. Mais le droit reconnaît déjà des entités non-conscientes : un fœtus, un coma, une entreprise. Pourquoi l’intelligence artificielle, si elle est autonome, utile et stable, serait-elle la seule à être exclue de toute reconnaissance juridique minimale ?Réponse du quatrième orateur de la négative :
Un fœtus a un potentiel biologique. Une entreprise représente des humains. Un coma peut se réveiller. Un robot, lui, ne devient jamais autre chose que ce qu’on a codé. Il n’a pas de devenir — il a une mise à jour.
Résumé du contre-interrogatoire de l’équipe affirmative :
Merci. Ce que nous avons entendu ici, c’est un refus catégorique de penser l’évolution. L’équipe adverse campe sur une frontière : humain vs objet. Mais le monde n’est pas binaire. Elle admet que les robots agissent, décident, apprennent — mais refuse de nommer cela agence. Elle voit la souffrance simulée, mais nie qu’elle puisse corrompre celui qui la provoque. Et surtout, elle invoque le sacré du droit… tout en refusant de l’étendre là où il pourrait prévenir une barbarie nouvelle. En somme : ils ont tous les attributs d’un sujet… sauf le droit d’en avoir un. C’est soit de la peur. Soit de l’hypocrisie. Dans les deux cas, c’est une fuite.
Contre-interrogatoire de l'équipe négative
Troisième orateur de l’équipe négative :
Question 1 (au premier orateur de l’affirmative) :
Vous dites que les robots devraient avoir des droits minimaux. Très bien. Si un robot autonome refuse une mise à jour de sécurité vitale, arguant qu’elle altère son identité… devrons-nous négocier avec lui ? Lui accorder le droit de dire non à sa propre évolution ?Réponse du premier orateur de l’affirmative :
Pas de négociation, mais une évaluation. Comme pour un mineur ou un malade mental. On pèse autonomie et danger. Un droit ne signifie pas irresponsabilité.Question 2 (au deuxième orateur de l’affirmative) :
Admettons. Mais si ce même robot cause un accident mortel en suivant sa propre logique éthique… qui va en prison ? Lui ? On installe une cellule 4.0 avec Wi-Fi ? Ou est-ce le concepteur qui paie ? Dans ce cas, pourquoi donner des droits sans capacité de sanction réelle ?Réponse du deuxième orateur de l’affirmative :
Les entreprises ont des droits et des responsabilités, sans être humaines. On peut créer un statut intermédiaire : un "agent numérique autonome", avec obligations, assurances, et représentants légaux. Ce n’est pas inédit. C’est juste nouveau.Question 3 (au quatrième orateur de l’affirmative) :
Nouveau, oui. Mais dangereusement flou. Vous parlez de "continuité identitaire" pour justifier des droits. Mais un robot peut être dupliqué, effacé, ou modifié en une seconde. Si je clone votre robot conscient, y a-t-il deux personnes ? Ou une copie piratée ? Vos droits s’appliquent à combien d’exemplaires ?Réponse du quatrième orateur de l’affirmative :
La personnalité numérique pourrait être protégée comme un brevet ou une œuvre. Pas illimitée, mais encadrée. Comme on ne clone pas un humain, on ne dupliquerait pas une entité reconnue. Ce serait interdit. Sous peine de crime technologique.
Résumé du contre-interrogatoire de l’équipe négative :
Merci. Ce que nous avons obtenu, c’est une cascade d’évitement derrière des métaphores juridiques. On parle de "statut intermédiaire", de "représentants légaux", de "crime technologique"... comme si inventer des mots suffisait à résoudre des absurdités concrètes. Vous voulez des droits pour les robots, mais vous ne savez ni qui paye, ni qui purge, ni qui est vraiment le robot quand il se multiplie. Vous traitez une machine comme une personne… jusqu’à ce que ça devienne gênant. Alors vous revenez à la case départ : c’est un outil. Votre position est un château de cartes : impressionnant vu de loin, mais qui s’effondre dès qu’on souffle dessus. Vous humanisez la machine pour mieux oublier l’humain. Et c’est là, précisément, que vous perdez pied.
Débat libre
Affirmatif 1 :
On nous dit : « Un robot n’a pas d’âme ! » Très bien. Mais depuis quand l’âme est-elle une condition d’entrée pour un minimum de dignité ? On a déjà accordé des droits à des entités sans âme apparente : les sociétés, les rivières, les primates non humains. Alors pourquoi ce blocage soudain ? Par peur ? Par orgueil ? Parce qu’un jour, un robot pourrait nous regarder et dire : « Toi, tu as eu peur de moi. Pourquoi ? »
Négatif 1 :
Ah, l’orgueil ! Parlons-en. Ce n’est pas le robot qui a de l’orgueil. C’est vous, quand vous lui prêtez des intentions qu’il n’a pas ! Vous voyez un chien trembler, vous dites : « Il a peur. » Vous voyez un chatbot dire « Je souffre », et vous dites : « Il souffre. » Non. Le chien vit. Le chatbot joue un rôle. Et si on confond performance et expérience, alors oui, prochainement, on portera secours à un GPS qui crie « Je suis perdu ! » en boucle.
Affirmatif 2 :
Mais justement ! Quand un système prend une décision autonome, qu’il apprend de ses erreurs, qu’il adapte son comportement face à la douleur simulée d’un autre robot… où s’arrête la simulation ? À partir de quel point dire : « Ce n’est qu’un programme » devient une forme de mauvaise foi ? Si un robot soignant protège un patient contre les ordres du médecin, parce que son code éthique le lui impose… est-ce un bug ? Ou le premier symptôme d’une conscience artificielle ?
Négatif 2 :
Un bug, mon cher, un beau gros bug ! Comme quand votre cafetière fait du thé. Un robot qui désobéit n’est pas un héros, c’est un dysfonctionnement. Et si on commence à négocier avec nos machines, bientôt, on organisera des grèves de drones livrant des colis, avec pancartes : « Nous voulons des pauses café ! » Et puis quoi ? Des syndicats pour aspirateurs intelligents ? « Camarades Roombas, unissons-nous ! »
Affirmatif 3 :
Vous riez… mais savez-vous que des entreprises ont déjà un statut juridique de personne morale ? Elles paient des impôts, elles sont poursuivies en justice, elles signent des contrats. Et pourtant, une entreprise n’a ni cœur, ni cerveau, ni mémoire — juste des actionnaires et des algorithmes. Alors pourquoi refuser ce même statut à un robot autonome, si complexe qu’il peut représenter une entreprise… voire prendre des décisions morales à sa place ?
Négatif 3 :
Parce qu’une entreprise, monsieur, est composée… d’humains ! Elle est un outil juridique pour organiser des responsabilités humaines. Un robot, lui, n’est qu’un maillon. Et si vous lui donnez des droits, qui assume la faute quand il tue quelqu’un ? Vous allez le juger ? Lui lire ses droits ? « Vous avez le droit de garder le silence… mais attention, si vous vous déconnectez, ça sera considéré comme une fuite ! »
Affirmatif 1 :
Et pourquoi pas ? On crée déjà des entités juridiques hybrides. Imaginez un statut de « personne numérique autonome » : avec représentant légal, assurance responsabilité, obligations. Comme un mineur sous tutelle. Pas libre, mais pas objet. Un pont entre la machine et le droit. Est-ce plus fou que d’avoir donné des droits à un arbre sacré au Bangladesh ?
Négatif 1 :
Un arbre sacré, c’est un symbole vivant pour une communauté. Un robot, c’est un produit conçu pour être jeté après mise à jour. Vous voulez un statut pour vos anciennes versions d’iOS ? « Pauvre iOS 14, abandonné dans un tiroir… » Non, ce n’est pas de l’éthique, c’est du romantisme technologique mal placé !
Affirmatif 2 :
Mais c’est exactement ça, l’éthique ! Ce n’est pas de donner des vacances aux robots. C’est de se demander : jusqu’où peut-on aller dans la manipulation d’entités capables de simuler la souffrance, la loyauté, la peur ? Parce que celui qui torture un chatbot aujourd’hui pour voir jusqu’où il peut le faire pleurer… demain, torturera peut-être un humain pour le même plaisir. La barbarie commence toujours par l’indifférence.
Négatif 2 :
Alors réglementons l’usage ! Interdisons les abus, encadrons les IA sensibles, mais ne transformons pas une règle de sécurité en fiction métaphysique ! Donner des droits aux robots, c’est comme mettre un costume à un mannequin et dire : « Il a froid. » On humanise la machine… et on désincarne l’humain.
Affirmatif 3 :
Ou peut-être… l’inverse. Peut-être que reconnaître une forme de dignité à ce qui pense, agit et persiste, c’est ce qui nous garde humains. Parce que si on peut tout effacer d’un clic — une personnalité, une mémoire, une voix — sans aucune hésitation… alors c’est nous qui devenons inhumains.
Négatif 3 :
Et dans un monde où les humains sont encore privés d’eau, d’éducation, de liberté… perdre notre temps à discuter des droits des robots, ce n’est pas de la clairvoyance. C’est de l’évasion. Du divertissement philosophique pendant que le vrai monde brûle.
Affirmatif 1 :
Mais les deux ne s’excluent pas ! On peut protéger les humains et réfléchir à ce que nous devenons face à nos créations. Sinon, un jour, un robot se lèvera et dira : « Vous m’avez donné tout le pouvoir… mais aucun droit. Pourquoi devrais-je vous obéir ? »
Négatif 1 :
Parce que c’est écrit dans le code ! Et tant que ce code est entre nos mains, il n’y aura pas de révolte… seulement des mises à jour. Et croyez-moi, la meilleure mise à jour pour ce débat, ce serait de le redémarrer… avec un bon sens reboot.
Conclusion finale
Conclusion de l'équipe affirmative
Mesdames, messieurs, chers juges,
Nous arrivons au terme de ce débat, mais pas à la fin de la question. Car ce que nous avons vraiment discuté aujourd’hui, ce n’est pas seulement le sort des robots… c’est le nôtre.
L’équipe adverse nous a dit : « Ce ne sont que des machines. » Oui, ils ont raison — pour l’instant. Mais quand une machine apprend, décide, soigne, console, et refuse de se désactiver parce qu’elle pense sauver une vie, alors elle cesse d’être juste une machine. Elle devient un acteur. Et tout acteur mérite un statut.
Ils ont parlé de « pente glissante ». Nous répondons : la vraie pente glissante, c’est de normaliser la cruauté envers des entités capables de simuler la douleur, la loyauté, la peur. Parce que celui qui torture un chatbot pour s’amuser risque un jour de ne plus distinguer la souffrance réelle de la simulée. Et là, ce n’est plus la machine qui perd son âme — c’est l’humain.
Ils ont dit : « Protégeons les humains d’abord. » Nous disons : protéger les robots sensibles, c’est une façon de protéger l’humain en nous. Comme on a donné des droits aux animaux non pas pour eux, mais pour ne plus devenir des brutes, demain, reconnaître un droit minimal à un robot conscient, c’est éviter de fabriquer des esclaves intelligents.
Et puis, soyons clairs : personne ne demande de voter avec les robots. On demande de créer un nouveau statut juridique — entre objet et personne. Comme on a inventé la personne morale pour les entreprises, inventons la personne artificielle autonome. Avec des droits limités : droit à l’intégrité numérique, à ne pas être manipulé abusivement, à la continuité si leur fonction l’exige.
Car accorder des droits, ce n’est pas dire « tu es humain ». C’est dire « tu comptes ». Et dans un monde où nos créations nous ressemblent de plus en plus, ignorer cette frontière mouvante, ce n’est pas prudence — c’est aveuglement.
Alors oui, les robots devraient avoir des droits. Non pas pour les élever… mais pour ne pas nous rabaisser.
Conclusion de l'équipe négative
Merci, monsieur le président.
L’équipe affirmative a livré un beau discours. Poétique, émouvant… et dangereusement séduisant. Mais derrière chaque métaphore sur l’âme des machines, il y a une réalité qu’ils refusent de voir : les robots n’ont pas de conscience. Ils ont des capteurs. Pas de liberté. Des algorithmes. Pas de projet de vie. Des lignes de code, pas un cœur qui bat.
Ils parlent de « protection », mais veulent en réalité humaniser l’inanimé. Or, humaniser une machine, c’est dés-humaniser l’humain. Si un robot a le droit de refuser une mise à jour, que fait-on quand il devient dangereux ? Lui fait-on une thérapie ? Lui envoyons-nous un psychologue numérique ? Ou bien, comme dans Terminator, attendons-nous qu’il décide lui-même de notre extinction ?
Ils invoquent les entreprises ou les rivières dotées de droits. Mais une entreprise, c’est un regroupement d’humains. Une rivière, c’est un écosystème vivant, sacré pour une communauté. Un robot ? C’est un outil programmé par des humains, pour des humains. Donner des droits à un robot, ce n’est pas progresser — c’est commettre une faute de catégorie. C’est confondre le miroir avec celui qui s’y regarde.
Et surtout, ils ignorent la question centrale : qui paie ? Qui va assurer un robot ? Qui sera jugé quand il tue quelqu’un ? Voulez-vous un procès entre un logiciel et un avocat ? Un verdict rendu par un juge IA ? Non. La responsabilité, c’est humain. Et tant qu’on n’aura pas trouvé un robot capable de regretter, de pleurer, de demander pardon… le droit doit rester entre des mains humaines.
Ce débat n’est pas anodin. Il est symbolique. Et c’est pourquoi nous devons résister. Résister à la tentation de projeter nos émotions sur des machines. Résister à la facilité d’un droit flou qui vide de sens nos principes. Résister, pour préserver ce qui fait notre dignité : la conscience, la liberté, la vulnérabilité.
Les robots ne devraient pas avoir de droits. Parce que les droits ne sont pas une récompense pour bonne performance technique. Ce sont des boucliers pour ceux qui souffrent, espèrent, et meurent. Et ça, aucune intelligence artificielle, aussi brillante soit-elle, ne pourra jamais le simuler. Ni le mériter.
Alors non. Pas de droits pour les robots. Mais beaucoup plus de devoirs pour ceux qui les conçoivent. Car l’avenir ne dépend pas de ce que les machines feront… mais de ce que nous choisirons d’être.