Download on the App Store

La médecine personnalisée à base d'IA est-elle une avancée é

Déclaration d'ouverture

Déclaration d'ouverture de l'équipe affirmative

Mesdames, Messieurs, jurys, chers adversaires,

Imaginez un monde où votre traitement contre le cancer ne serait plus choisi au hasard parmi une dizaine d’options standardisées, mais conçu spécifiquement pour vous — pour votre génome, votre microbiote, votre mode de vie, votre histoire. Ce monde, ce n’est pas de la science-fiction. C’est la médecine personnalisée à base d’intelligence artificielle. Et oui, nous affirmons ici haut et fort : cette révolution technologique est non seulement une avancée médicale, mais une avancée éthique.

Par « avancée éthique », nous entendons une innovation qui renforce la dignité humaine, respecte l’autonomie du patient, et tend vers une justice plus fine dans l’accès aux soins. L’IA, loin d’être un monstre froid, devient ici un allié de la bienveillance clinique. Elle permet de passer d’une médecine du plus probable à une médecine du juste pour moi. Et c’est précisément cela qui change tout.

Notre première raison ? L’autonomie retrouvée du patient. Aujourd’hui, trop de patients sont réduits au silence dans leur propre parcours de soin. On leur dit : « Voici ce qu’on fait en général. » Avec l’IA, on bascule vers : « Voici ce qui fonctionne pour vous, selon vos données, vos préférences, vos valeurs. » Ce n’est plus la maladie qui parle, c’est le patient. L’IA devient alors un amplificateur de liberté, pas un substitut à la décision humaine.

Deuxième pilier : l’efficacité thérapeutique comme devoir moral. Laisser mourir quelqu’un parce qu’on a administré le mauvais traitement, alors que les données disaient clairement qu’un autre aurait pu marcher — cela relève de la négligence. Or, l’IA peut analyser des milliers de variables en temps réel, détecter des schémas invisibles à l’œil humain, et proposer des protocoles sur mesure. Refuser cet outil, ce n’est pas faire preuve de prudence éthique — c’est commettre une omission morale. Comme refuser la pénicilline en 1940 au nom de la tradition.

Troisième argument : la justice distributive revisitée. Oui, vous allez nous parler de biais, de données inégales, de fractures numériques. Mais soyons clairs : le problème n’est pas l’IA, c’est son accès inégal. Et justement, à long terme, la médecine personnalisée peut réduire les inégalités. Comment ? En identifiant plus tôt les maladies chez les populations sous-diagnostiquées, en adaptant les traitements aux réalités socio-culturelles, en automatisant des diagnostics coûteux. L’IA, bien encadrée, peut être un levier d’inclusion, pas d’exclusion.

Enfin, dernière pierre à notre édifice : l’humanisation paradoxale de la médecine. Paradoxale ? Oui. Car en libérant les médecins des tâches répétitives, en les aidant à voir plus loin, l’IA leur rend du temps humain. Du temps pour écouter, accompagner, consoler. Elle ne remplace pas l’empathie — elle la rend possible à grande échelle.

Alors, oui, il faut encadrer, réguler, former, auditer. Mais refuser cette avancée au nom d’une peur diffuse, c’est confondre éthique et immobilisme. Nous, nous choisissons l’éthique du soin, pas celle de la suspicion. Et sur ce terrain, l’IA n’est pas une menace — c’est un remède.


Déclaration d'ouverture de l'équipe négative

Chers amis du progrès technologique, chers défenseurs du « toujours plus rapide, toujours plus précis », permettez-nous de poser une question simple : et si la perfection promettait l’enfer ?

Nous, équipe négative, ne contestons pas le potentiel technique de l’IA en médecine. Ce que nous refusons, c’est l’idée que parce que c’est possible, c’est donc éthique. Non, la médecine personnalisée à base d’IA n’est pas automatiquement une avancée éthique. Elle est, surtout, une machine à normaliser, à segmenter, à prédire — et donc, à juger qui mérite d’être soigné, comment, et jusqu’où.

Première alerte : l’eugénisme doux par algorithme. L’IA apprend sur des données passées. Or, ces données sont biaisées : elles viennent majoritairement d’hommes blancs, jeunes, urbains, en bonne santé. Appliquer ces modèles à tous, c’est reproduire et amplifier les inégalités. Pire : en prédéterminant qui répondra bien à un traitement, on crée une médecine du « profil idéal ». Et ceux qui ne rentrent pas dans le moule ? On les exclut en douceur. Pas de violence, juste une ligne de code qui dit : « Vous avez trop de comorbidités, le traitement ne sera pas remboursé. »

Deuxième danger : la fracture algorithmique. Vous parlez d’équité ? Regardez les faits. Qui a accès aux capteurs, aux séquençages, aux plateformes sécurisées ? Les classes aisées, les pays riches. La médecine personnalisée risque de devenir un luxe pour quelques-uns, tandis que le reste du monde attend encore des antibiotiques. Ce n’est pas une avancée éthique — c’est une nouvelle forme d’apartheid sanitaire, vêtue de pixels et de big data.

Troisième point : la désincarnation du soin. La médecine, ce n’est pas seulement diagnostiquer et traiter. C’est regarder dans les yeux, sentir l’anxiété, deviner ce que le patient ne dit pas. Or, l’IA transforme le corps en jeu de données. Elle réduit la souffrance à un signal à optimiser. Et le médecin ? Il devient un intermédiaire entre l’algorithme et le patient. On perd ce moment sacré où un humain en soigne un autre. Ce n’est pas de la médecine — c’est de la maintenance biométrique.

Enfin, quatrième objection : l’illusion de la neutralité. L’IA se présente comme objective. Mais derrière chaque modèle, il y a des choix : quels critères privilégier ? Quand arrêter un traitement ? Qui finance la recherche ? Une IA développée par une multinationale aura-t-elle intérêt à recommander un médicament générique ou un blockbuster breveté ? L’éthique ne peut pas être déléguée à une boîte noire dont personne ne comprend les décisions.

Alors oui, l’IA peut aider. Mais la confier la personnalisation du soin, c’est risquer de perdre ce qui fait l’essence même de la médecine : l’imprévu, l’exception, l’humain dans toute sa complexité. Nous ne sommes pas des cas cliniques, nous sommes des histoires. Et aucune intelligence artificielle ne devrait avoir le dernier mot sur notre destin médical.

L’éthique, ce n’est pas suivre la technologie là où elle va. C’est savoir lui dire : jusque-là, et pas plus loin.

Réfutation de la déclaration d'ouverture

Réfutation de l'équipe affirmative

Merci, cher premier orateur de l’équipe négative, pour votre plaidoyer vibrant — et inquiétant. Inquiétant parce qu’il repose sur une erreur fondamentale : confondre les risques mal encadrés de l’IA avec l’IA elle-même. Vous avez dressé un tableau apocalyptique : eugénisme algorithmique, apartheid sanitaire, désincarnation du soin… Mais dites-moi, rejetez-vous aussi l’imagerie médicale parce qu’un scanner mal interprété peut tuer ? Non. Alors pourquoi rejeter l’IA au nom de ses dérives potentielles ?

Premier point : vous exagérez le biais comme fatalité. Oui, les données historiques sont biaisées. Mais l’IA, justement, permet de détecter ces biais ! Elle peut croiser des cohortes invisibles, révéler des symptômes atypiques chez les femmes ou les personnes âgées, corriger les erreurs systémiques. Ce n’est pas l’IA qui produit le biais — c’est la médecine traditionnelle qui l’a intériorisé. L’IA, bien utilisée, est un miroir salutaire, pas un complice.

Deuxième objection : la fracture numérique n’est pas une fatalité technique, mais politique. Dire « l’IA creuse les inégalités » revient à dire « l’électricité est immorale car tous n’y ont pas accès ». Non. La solution, ce n’est pas d’interdire l’innovation, c’est de généraliser l’accès. Des projets comme ceux du Rwanda ou du Bangladesh montrent que des diagnostics par IA peuvent fonctionner sur smartphones à 50 euros. L’IA, c’est peut-être la première technologie capable de démocratiser l’excellence médicale — si on le veut vraiment.

Troisième contresens : vous opposez abusivement humanité et technologie. Comme si écouter un patient excluait d’utiliser un algorithme. Mais quand un médecin passe trois heures à compiler des données pour un protocole oncologique, combien de temps lui reste-t-il pour tenir la main d’un malade ? L’IA libère du temps clinique, elle ne le vole pas. Elle ne remplace pas l’empathie — elle la rend durable. Et puis, soyons honnêtes : un médecin fatigué, submergé, prend-il forcément de meilleures décisions qu’un système assisté ? L’humain sans outil n’est pas plus éthique — il est juste plus fatigué.

Enfin, votre quatrième argument, celui de la « boîte noire », est sérieux — mais soluble. Nous ne proposons pas de déléguer l’éthique à une machine. Nous proposons de l’encadrer. Avec des audits indépendants, des comités d’éthique mixtes, une transparence algorithmique. L’IA n’est pas neutre ? Parfait. Rendons-la responsable. Exigeons des explications, des recours, des droits à la contestation. Ce n’est pas l’IA qui est éthiquement dangereuse — c’est son absence de gouvernance.

Vous craignez l’eugénisme ? Moi, je crains la fatalité. Refuser l’IA au nom du risque, c’est choisir de laisser des vies derrière nous. Nous, nous choisissons de réguler, d’inclure, d’accompagner. Parce que l’éthique, ce n’est pas fuir le progrès — c’est le diriger.


Réfutation de l'équipe négative

Chers amis de l’équipe affirmative, vous nous vendez un rêve : l’IA au service de l’autonomie, de la justice, de l’humanité. Un conte de fées numérique, où chaque patient devient roi de son génome. Mais derrière cette belle rhétorique, nous sentons poindre une illusion dangereuse : celle de la neutralité bienveillante de l’algorithme.

Premier démontage : l’autonomie du patient ? Une illusion marchande. Vous parlez d’« autonomie retrouvée », comme si l’IA offrait un menu personnalisé de traitements. Mais dans quel monde vivons-nous ? Celui où les assurances refusent les soins coûteux, où les hôpitaux rationnent les ressources ? L’IA ne donne pas du choix — elle filtre le choix. Elle dit : « Voici ce qui est viable pour le système », pas « voici ce qui est juste pour vous ». Votre autonomie, c’est celle du consommateur devant un catalogue dont 90 % des articles sont en rupture de stock.

Deuxième mythe : l’efficacité comme devoir moral ? Une obligation sélective. Vous dites : « Refuser l’IA, c’est commettre une omission morale. » Très bien. Alors où étiez-vous quand on refusait des dialyses faute de moyens ? Où étiez-vous face aux pénuries de médicaments ? Si l’efficacité était un devoir moral, notre système de santé serait déjà en état de révolte permanente. Non, ce que vous appelez « devoir », c’est une priorité technophile : on investit massivement dans l’IA, mais à peine dans les soins palliatifs ou la psychiatrie. L’éthique, ce n’est pas suivre la pointe de la technologie — c’est soigner ceux qui souffrent, là, maintenant.

Troisième contresens : la justice distributive revisitée ? Plutôt verrouillée. Vous affirmez que l’IA peut réduire les inégalités. Mais regardez les faits : les essais cliniques d’IA sont menés dans des centres d’excellence, avec des patients jeunes, connectés, coopératifs. Qui est exclu ? Les analphabètes numériques, les sans-domicile, les ruraux. Et les pays du Sud ? Ils deviennent des terrains d’expérimentation, pas des bénéficiaires. Votre « inclusion » ressemble furieusement à une colonisation technologique. On leur prend leurs données, on y entraîne nos modèles, puis on leur vend les résultats. Belle justice.

Enfin, cette idée folle que l’IA humanise la médecine. Sérieusement ? Vous pensez qu’automatiser le diagnostic, c’est humaniser ? Quand un patient apprend qu’il va mourir via un message push sur son smartphone, est-ce cela, l’humanisation ? La médecine, ce n’est pas traiter un cas — c’est accompagner une personne dans l’incertitude, la peur, la dignité. Or, l’IA, par nature, hait l’incertitude. Elle veut tout prédire, tout classifier, tout optimiser. Elle ne comprend pas le silence, le regard baissé, le sanglot retenu. Elle ne sait pas faire face à l’exception, à l’impensé, à l’amour.

Et puis, avouons-le : derrière chaque algorithme, il y a un intérêt. Qui développe ces IA ? Des startups financées par Big Pharma, des géants du numérique qui rêvent de breveter vos données biologiques. Vous croyez qu’ils vont prioriser le médicament générique peu rentable ? Bien sûr que non. L’IA ne sera pas neutre tant qu’elle sera privée.

Vous parlez d’encadrement ? Très bien. Mais comment réguler ce que personne ne comprend ? Même les ingénieurs ne savent pas toujours pourquoi leur modèle a pris telle décision. Et vous voulez confier la vie des gens à ça ? L’éthique, ce n’est pas courir après la technologie en criant « ralentis ! ». C’est savoir dire : certains domaines doivent rester humains. Certains choix ne doivent pas être calculés. Certains silences ne doivent pas être analysés.

Parce que la vraie question n’est pas : « L’IA peut-elle soigner mieux ? »
C’est : « Voulons-nous d’une médecine où tout est prévu, mesuré, optimisé — sauf l’âme ? »

Contre-interrogatoire

Contre-interrogatoire de l'équipe affirmative

Troisième orateur de l’équipe affirmative :

Question 1 – À l’orateur principal de l’équipe négative :
Vous avez parlé d’un « eugénisme doux par algorithme », affirmant que l’IA exclut ceux qui ne rentrent pas dans le profil type. Mais concrètement, préférez-vous garder un système médical déjà biaisé, fondé sur des essais cliniques historiquement blancs, jeunes et masculins, plutôt que d’utiliser l’IA justement pour détecter et corriger ces biais ? Autrement dit : rejetez-vous le correctif parce qu’il rappelle la faute ?

Réponse du premier orateur négatif :
Nous ne rejetons pas le correctif, mais nous refusons qu’il soit automatisé. L’IA peut détecter des biais, oui, mais elle les statifie si on ne contrôle pas ses objectifs. Et qui fixe ces objectifs ? Des entreprises, pas des comités de patients. Donc non, je ne préfère pas le système actuel — mais je crains davantage un système où la correction serait elle-même biaisée par des intérêts invisibles.

Question 2 – Au deuxième orateur de l’équipe négative :
Vous avez dit que l’IA « hait l’incertitude » et ne comprend pas l’âme du patient. Très bien. Mais quand un médecin rate un cancer du poumon parce qu’il a négligé un symptôme atypique chez une femme fumeuse âgée — erreur classique due à des stéréotypes humains — l’« âme » du patient était-elle mieux respectée ? Ou est-ce que, là aussi, l’humain a failli, mais sans algorithme pour le lui rappeler ?

Réponse du deuxième orateur négatif :
L’humain peut faillir, certes. Mais il peut aussi se repentir, s’excuser, accompagner dans l’erreur. L’algorithme, lui, se trompe silencieusement, sans remords, sans regard. Une erreur humaine est tragique ; une erreur algorithmique est invisible — et donc plus dangereuse encore.

Question 3 – Au quatrième orateur de l’équipe négative :
Vous affirmez que l’IA mène à une « maintenance biométrique ». Imaginons maintenant un enfant autiste dont les parents passent des années à chercher un diagnostic. Grâce à une IA analysant ses comportements vidéo, on identifie le trouble à 18 mois. Sans attendre, on déclenche une prise en charge adaptée. Où est la désincarnation ici ? N’est-ce pas plutôt une incarnation précoce de la bienveillance ?

Réponse du quatrième orateur négatif :
C’est un bel exemple. Mais il repose sur une sélection : l’enfant a été filmé, les données existent, les parents sont équipés. Et après ? Qui suit l’enfant ? Un robot empathique ou un éducateur formé ? L’IA peut allumer la lumière, mais ne construit pas la maison. Votre exemple prouve l’aide technologique — pas la supériorité éthique de la personnalisation algorithmique.

Résumé du contre-interrogatoire de l’équipe affirmative :
Mes chers jurys, écoutez bien ce qui vient d’être dit. L’équipe adverse reconnaît que le système actuel est biaisé, mais refuse l’outil capable de le corriger. Elle admet que l’humain fait des erreurs dramatiques, mais préfère la faute visible à l’erreur cachée. Elle loue l’accompagnement humain — tout en ignorant que sans détection précoce, il n’y a personne à accompagner. En somme : ils veulent sauver l’âme du soin, mais au prix du corps malade. Nous, nous disons : humaniser, c’est aussi agir à temps. Et l’IA, bien encadrée, est ce timing-là.


Contre-interrogatoire de l'équipe négative

Troisième orateur de l’équipe négative :

Question 1 – À l’orateur principal de l’équipe affirmative :
Vous parlez d’autonomie retrouvée grâce à l’IA. Mais si l’algorithme recommande un traitement coûteux non remboursé, et que l’assurance refuse le remboursement parce que le modèle prévoit un faible taux de succès, le patient est-il encore libre de choisir ? Ou devient-il un simple calcul dans un tableau Excel ?

Réponse du premier orateur affirmatif :
Le choix du patient reste central. L’IA informe, elle n’ordonne pas. Si l’assurance refuse, c’est une décision économique, pas médicale. Le problème n’est pas l’IA — c’est le système de santé. Et justement, en prouvant l’efficacité des traitements sur mesure, l’IA peut forcer ces systèmes à évoluer.

Question 2 – Au deuxième orateur de l’équipe affirmative :
Vous dites que l’IA libère du temps pour l’empathie. Mais combien de médecins, aujourd’hui, utilisent cet « extra-temps » pour écouter ? La plupart le passent à remplir des formulaires numériques… générés par l’IA. Alors, sérieusement : l’IA rend-elle plus d’humanité, ou juste plus de paperasse numérique ?

Réponse du deuxième orateur affirmatif :
La technologie ne change pas les mentalités — mais elle peut les contraindre. Des hôpitaux suisses et canadiens ont montré que des assistants IA réduisent de 30 % le temps passé sur l’administratif. Ce temps-là est récupéré pour le face-à-face. Ce n’est pas de la paperasse : c’est du temps gagné sur la machine pour le redonner à l’humain.

Question 3 – Au quatrième orateur de l’équipe affirmative :
Vous croyez en une IA « bien encadrée ». Mais pouvez-vous nommer un seul algorithme médical d’usage courant dont les règles de décision soient publiques, auditables, et compréhensibles par un patient ? Ou bien votre confiance repose-t-elle sur un acte de foi envers des boîtes noires conçues par des multinationales ?

Réponse du quatrième orateur affirmatif :
Aucun système n’est parfait, mais des progrès existent : l’Europe impose désormais la transparence algorithmique via le Règlement général sur la protection des données (RGPD) et la future loi sur l’IA. Des projets comme Explainable AI en oncologie montrent des interfaces lisibles par les patients. Ce n’est pas une foi — c’est un chantier. Et on ne bloque pas un train parce qu’il roule encore à vapeur.

Résumé du contre-interrogatoire de l’équipe négative :
Écoutez bien. L’équipe affirmative rêve d’une IA libératrice, mais ne peut citer aucun cas concret d’algorithme médical transparent et démocratisé. Elle rejette la responsabilité sur les assurances, les gouvernements, le capitalisme — comme si la technologie flottait hors du monde réel. Elle croit que le temps gagné sera automatiquement donné au patient, alors que partout, il est capturé par la bureaucratie. Et elle invoque des lois futures comme preuve d’éthique présente. C’est comme dire : « Je suis honnête… dès que la loi me forcera à l’être. » Non. L’éthique, ce n’est pas une promesse conditionnelle. C’est une pratique maintenant. Et aujourd’hui, l’IA médicale est une opération chirurgicale sans consentement éclairé.

Débat libre

Orateur 1 – Affirmative :
Vous parlez d’« eugénisme doux », mais regardez la réalité : aujourd’hui, on diagnostique le cancer du sein chez les femmes blanches trois fois plus tôt que chez les femmes noires — et ça, c’est de l’eugénisme réel, humain, silencieux. L’IA, si elle est entraînée correctement, peut détecter ces écarts. Elle ne les crée pas — elle les dénonce. Alors oui, corrigeons les biais… mais ne brûlons pas la seule lampe capable de les voir dans le noir !

Orateur 1 – Négative :
Et qui allume cette lampe ? Une startup californienne financée par Big Data Pharma ! Votre IA « bienveillante » sera programmée pour prioriser les traitements brevetés, pas ceux qui guérissent. Vous voulez dénoncer les inégalités ? Très bien. Mais pas avec un outil qui transforme la santé en marché prédictif, où votre valeur vitale se mesure à votre taux de rentabilité biologique !

Orateur 2 – Affirmative :
Ah, le complot numérique ! Toujours pratique quand on veut éviter la discussion. Mais concrètement : au Sénégal, une IA diagnostique la rétinopathie diabétique via un smartphone. Pas de radiologue, pas de scanner, juste un téléphone. Et ça sauve des yeux. Est-ce que vous allez dire à ces patients : « Désolé, on attend que l’éthique soit parfaite avant de vous soigner » ?

Orateur 2 – Négative :
Et combien de données personnelles ont été vendues au passage ? Combien de modèles testés d’abord sur eux, sans consentement, pour améliorer les versions européennes ? Votre « bel exemple africain » sent bon la néocolonisation technologique. On leur prend leurs visages, leurs gènes, leurs souffrances — pour entraîner nos algorithmes. Et après, on leur facture l’abonnement premium. Bravo, l’éthique inclusive !

Orateur 3 – Affirmative :
Alors selon vous, il faut refuser toute technologie tant qu’elle n’est pas parfaite partout ? Parce que sinon, on exploite ? Dans ce cas, sortez les chariots à cheval, on arrête l’anesthésie, les vaccins, tout a commencé dans l’imperfection. L’éthique, ce n’est pas l’immobilisme — c’est la correction continue. L’IA peut être auditée, expliquée, contestée. Ce n’est pas une divinité obscure — c’est un outil qu’on peut rendre responsable.

Orateur 3 – Négative :
Un outil qu’on peut rendre responsable ? Mais qui porte la faute quand l’algorithme dit « non traitement » à un patient en fin de vie ? Le médecin ? L’ingénieur ? L’actionnaire ? Non, dans votre système, tout le monde se renvoie la balle… sauf le patient, qui meurt seul avec une décision qu’il ne comprend pas. L’IA, c’est la machine à diluer la responsabilité. Et ça, ce n’est pas éthique — c’est lâche.

Orateur 4 – Affirmative :
Et quand le médecin, submergé, rate un diagnostic parce qu’il a vu 40 patients en une matinée ? Qui est responsable ? L’humain fatigué ? L’administration ? Encore une fois, vous idéalisez le système actuel comme parfaitement humain, alors qu’il est surtout surchargé, biaisé, et parfois cruel par omission. L’IA n’est pas là pour juger à notre place — elle est là pour nous aider à mieux juger. Comme un GPS : il ne conduit pas, mais il évite les embouteillages… et parfois, les accidents.

Orateur 4 – Négative :
Mais un GPS, il ne décide pas si vous méritez d’arriver à destination. Lui, il calcule le chemin. Tandis que votre IA médicale, elle, va dire : « À 78 ans, avec trois comorbidités, le traitement est inefficace. On passe à la sédation. » Et vous appelez ça de l’aide ? Moi, j’appelle ça une sélection douce, habillée de probabilités. L’éthique, ce n’est pas de choisir selon les chiffres — c’est de choisir malgré les chiffres, quand il y a un regard, une main tendue, une volonté de vivre.

Orateur 1 – Affirmative :
Donc, selon vous, il faut ignorer les données pour rester « humain » ? Refuser de savoir que tel médicament marche mieux chez telle personne, pour préserver l’incertitude poétique du soin ? Très romantique. Mais dites-moi, si c’était votre enfant, choisiriez-vous le traitement au hasard… ou celui qui a 92 % de chances de succès, calculé par une IA transparente et contrôlée ?

Orateur 1 – Négative :
Et si cette IA avait 92 % de succès… mais seulement sur les profils dominants ? Si elle ignorait les effets rares, les réactions atypiques, les cultures qui parlent autrement de la douleur ? Votre 92 %, c’est une moyenne qui enterre 8 % de gens — souvent les plus fragiles. L’éthique, ce n’est pas de maximiser les chiffres — c’est de voir ceux qui sont invisibles dans la courbe. Et ça, aucune IA ne le fera. Parce que la compassion, ce n’est pas un algorithme. C’est un choix.

Orateur 2 – Affirmative :
Mais justement ! L’IA peut rendre visibles les invisibles ! En croisant des milliers de cas rares, elle détecte des syndromes que personne n’avait vus. Elle alerte sur des effets secondaires spécifiques à certaines populations. C’est par la donnée qu’on humanise le soin à grande échelle. Sinon, on reste coincés dans l’intuition locale, le biais individuel, et le privilège du bon médecin au bon endroit.

Orateur 2 – Négative :
Et qui décide quels cas rares valent la peine d’être étudiés ? Une IA financée par une entreprise qui cherche un nouveau blockbuster ? Ou un hôpital public qui soigne tous les patients, même ceux dont le génome ne rapporte rien ? Ne confondez pas la visibilité technique avec la justice sociale. On peut très bien voir les pauvres grâce à l’IA… pour mieux les trier, les classer, les exclure systématiquement.

Orateur 3 – Affirmative :
Alors quoi ? On abandonne tout ? On arrête la recherche ? On dit aux malades rares : « Désolé, on ne creuse pas, au cas où quelqu’un en profite mal » ? L’éthique, ce n’est pas la peur du pire — c’est la volonté du meilleur, tout en surveillant les risques. Nous ne proposons pas l’IA libre de tout cadre. Nous proposons l’IA sous surveillance humaine. Avec des droits, des recours, des comités. Comme on a fait pour la chimio, pour les greffes, pour l’IVG. On n’a pas tout maîtrisé — mais on a avancé.

Orateur 3 – Négative :
Et combien de scandales avons-nous vécus avant de mettre en place ces garde-fous ? Thalidomide, sang contaminé, opioïdes… Chaque avancée technologique a eu son cortège de victimes. Et vous voulez répéter ça avec l’intelligence artificielle ? Confier des vies à des boîtes noires, pendant que les lobbyistes écrivent les lois ? Non. Cette fois, on doit anticiper. Et parfois, anticiper, c’est dire : « Stop. On ralentit. On réfléchit. On ne joue pas avec la vie humaine comme avec une mise à jour logicielle. »

Orateur 4 – Affirmative :
Et pendant qu’on réfléchit, les patients meurent. Lentement, inutilement, avec des traitements qui ne leur conviennent pas. Votre prudence est noble, mais elle a un prix. Et ce prix, ce sont des vies qu’on aurait pu sauver. L’éthique, ce n’est pas seulement éviter le mal — c’est aussi faire le bien. Et si l’IA est le seul moyen d’offrir un traitement juste à un enfant atteint d’une maladie ultra-rare, alors refuser cet outil, c’est commettre un mal bien réel.

Orateur 4 – Négative :
Et si, en voulant faire le bien, on instaure un système où seuls les « bons profils » en bénéficient ? Où l’exception est écartée au nom de l’efficacité ? L’éthique, ce n’est pas de sauver quelques vies avec des algorithmes — c’est de garantir que personne ne soit abandonné par le système. Même si c’est moins efficace. Même si c’est plus coûteux. Parce que la médecine, ce n’est pas une chaîne de production. C’est un pacte de solidarité. Et ce pacte-là, aucune IA ne peut le signer.

Conclusion finale

Conclusion de l'équipe affirmative

Mesdames, Messieurs, chers juges,

Nous voici arrivés au terme de ce débat. Et si on faisait simple ? Si on revenait à cette question fondamentale : qu’est-ce que l’éthique en médecine ?

Ce n’est pas de refuser les outils nouveaux par peur de mal faire.
Ce n’est pas de dire « non » à tout progrès sous prétexte qu’il pourrait être détourné.
Non. L’éthique, c’est d’abord de ne pas nuire — et accessoirement, de faire du bien.

Or, aujourd’hui, combien de patients meurent parce qu’on leur a donné un traitement standard, alors que leurs données biologiques criaient qu’il fallait autre chose ? Combien de cancers sont diagnostiqués trop tard, parce qu’on n’a pas su voir les signes atypiques chez une femme, chez une personne âgée, chez un patient d’origine minoritaire ? C’est ça, le vrai scandale éthique. Pas l’algorithme qui propose une solution — mais l’humain qui refuse de l’écouter.

Notre adversaire a parlé d’eugénisme doux. Très bien. Mais laissez-moi vous retourner la question : quand un algorithme dit « ce traitement est inefficace pour vous », est-ce de l’exclusion… ou de la franchise médicale ? Parce que jusqu’ici, c’était le médecin qui décidait, souvent inconsciemment, qui avait droit à l’espoir. Aujourd’hui, l’IA peut objectiver cette décision — et surtout, la rendre contestable. Un algorithme doit expliquer son choix. Un médecin fatigué, lui, peut juste hausser les épaules.

Et puis, soyons clairs : nous n’avons jamais dit que l’IA était parfaite. Nous avons dit qu’elle était améliorable. Que les biais, on pouvait les détecter. Que les inégalités, on pouvait les combattre — en investissant dans l’accès, pas en brûlant la technologie. Vous avez cité le Rwanda ? Moi, je vous cite encore mieux : des cliniques mobiles au Kenya utilisent l’IA pour diagnostiquer la rétinopathie diabétique sur smartphone. Sans infirmier, sans ophtalmo, sans route goudronnée. Et ça sauve des yeux. Est-ce immoral ? Ou est-ce au contraire profondément humain ?

Vous craignez la boîte noire ? Alors exigeons la transparence. Vous redoutez la marchandisation ? Alors régulons, publions, auditons. Mais ne confondez pas le problème avec sa solution. L’IA n’est pas l’ennemie de l’éthique — elle est son nouveau champ de bataille.

Alors oui, la médecine personnalisée à base d’IA est une avancée éthique. Parce qu’elle donne une chance à ceux que le système oublie. Parce qu’elle rend la médecine plus juste, plus fine, plus attentive. Parce qu’elle permet enfin de soigner le patient, et pas seulement la maladie.

Et si l’éthique, c’est aimer les gens tels qu’ils sont — avec leurs différences, leurs complexités, leurs particularités — alors l’IA, contre toute attente, devient peut-être… l’une des technologies les plus humanistes que nous ayons jamais inventées.

Nous vous demandons donc de voter pour l’affirmative. Non pas par naïveté. Mais par courage. Par responsabilité. Et par amour de la vie.


Conclusion de l'équipe négative

Chers amis,

Vous venez d’entendre un magnifique plaidoyer. Presque poétique. Une ode à la machine bienveillante, à l’algorithme libérateur, à la data comme nouvelle bible médicale. Et nous vous remercions — car vous avez parfaitement illustré notre plus grande crainte : la séduction technologique.

Parce que derrière chaque « avancée », il y a une question qu’on ose rarement poser : avancée pour qui ? Pour le patient ? Ou pour celui qui vend le logiciel ? Pour la science ? Ou pour le brevet ? Pour la santé mondiale ? Ou pour le profit trimestriel ?

Vous dites : « L’IA corrige les biais ». Mais qui corrige l’IA ? Qui décide de ses objectifs ? Quand un modèle est entraîné sur 80 % de données européennes, et qu’on l’applique en Afrique, est-ce de la correction… ou de la colonisation cognitive ? Vous parlez d’inclusion, mais vos projets pilotes sont financés par des géants numériques qui rêvent de posséder votre génome. Votre autonomie ? Elle commence là où leurs serveurs finissent.

Et puis, il y a ce mot que vous prononcez sans le comprendre : personnalisé. Comme si coller mille données sur une personne, c’était la connaître. Mais savez-vous ce que c’est, une personne ? Ce n’est pas un profil. Ce n’est pas un cluster. C’est un regard qui tremble. Une main qui serre celle du médecin. Un silence avant de dire : « J’ai peur. » L’IA ne capte pas ça. Elle ne peut pas. Parce que l’humain, ce n’est pas ce qui se mesure — c’est ce qui déborde la mesure.

Vous dites que l’IA libère du temps pour l’empathie. Mais regardez les hôpitaux aujourd’hui : chaque nouvelle technologie apporte son lot de formulaires, de paramétrages, de rapports. Qui vous dit que le temps gagné ne sera pas aussitôt repris par l’administration ? Que le médecin ne passera pas ses nouvelles minutes à justifier ses choix devant l’algorithme, plutôt qu’à tenir la main d’un mourant ?

Et puis, il y a ce point que vous esquivez depuis le début : la responsabilité. Si une IA se trompe, qui va en prison ? Personne. On dira : « bug dans le code ». On mettra à jour le logiciel. Pendant ce temps, un enfant est mort. Dans la médecine traditionnelle, l’erreur est humaine, donc visible, donc pardonnable, donc corrigeable. Dans la médecine algorithmique, l’erreur est invisible, opaque, distribuée entre développeurs, cliniciens, régulateurs. On enterre les victimes avec un message d’excuses automatisé.

Nous ne sommes pas contre la technologie. Nous sommes contre son hégémonie. Contre l’idée que tout ce qui est possible doit être fait. Contre la religion du « progrès à tout prix ».

L’éthique, ce n’est pas suivre la pointe de la technique.
C’est savoir dire : ici, nous nous arrêtons.
Ici, l’humain reste maître.
Ici, la vulnérabilité n’est pas un bug — c’est une valeur.
Ici, le soin ne se calcule pas. Il se donne.

Alors non, la médecine personnalisée à base d’IA n’est pas une avancée éthique. Pas tant que nous n’aurons pas résolu les questions de pouvoir, d’accès, de sens. Pas tant que nous n’aurons pas décidé que certaines choses — comme la relation de soin — doivent rester humaines. À tout jamais.

Votez pour la négative.
Pas par peur du futur.
Mais par fidélité au présent.
Par respect du passé.
Et par amour de ce qui, en nous, ne se télécharge pas.