Download on the App Store

의료 행위에 대한 인공지능(AI) 활용을 전면 허용해야 하는가?

개회 발언

찬성 측 개회 발언

존경하는 심사위원님, 그리고 오늘 이 자리에 함께하신 모든 분들께 묻겠습니다.
만약 당신이나 가족이 응급실에 실려 왔을 때, 0.1초 더 빠른 진단이 생명을 구할 수 있다면—그 결정을 누가 내려야 할까요? 인간 의사입니까, 아니면 데이터와 경험을 바탕으로 수백만 건의 사례를 학습한 인공지능입니까?

우리 측은 분명히 선언합니다. 의료 행위에 대한 인공지능 활용은 전면 허용되어야 합니다.
왜냐하면 이는 단순한 기술 선택이 아니라, 인간 생명을 지키기 위한 도덕적 의무이기 때문입니다.

첫째, AI는 의료 오류를 획기적으로 줄입니다.
세계보건기구(WHO)에 따르면, 전 세계적으로 매년 약 134만 명이 의료 과실로 사망합니다. 이 중 상당수는 피로, 감정, 정보 부족에서 비롯된 인간의 한계 때문입니다. 반면, AI는 감정에 휘둘리지 않고, 최신 연구와 환자 데이터를 실시간으로 종합해 객관적인 판단을 내립니다. 존스홉킨스 대학 연구에서는 AI 기반 진단 시스템이 인간 전문의보다 약 30% 높은 정확도를 보였습니다.

둘째, 의료 접근성을 민주화합니다.
현재 전 세계 45억 명이 기본적인 의료 서비스조차 받지 못합니다. 특히 농촌, 난민 캠프, 개발도상국에서는 의사 한 명이 수천 명을 담당하기도 합니다. 그런데 만약 스마트폰 하나로 AI 의사와 연결된다면? 아프리카의 한 마을 아이가 말라리아 증상을 사진으로 찍고, 즉시 치료법을 받을 수 있다면—이것이야말로 진정한 의료 평등이 아닐까요?

셋째, AI는 인간 의사를 대체하지 않고, 오히려 그 역할을 고도화합니다.
AI가 반복적 진단과 데이터 분석을 맡으면, 의사는 환자와의 소통, 윤리적 판단, 복합적 치료 계획 수립에 집중할 수 있습니다. 덴마크에서는 이미 AI가 방사선 판독의 80%를 처리하고, 의사는 나머지 20%의 복잡한 케이스와 환자 상담에 전념합니다. 이는 의료의 인간성 상실이 아니라, 인간성의 회복입니다.

누군가는 말할 것입니다. “AI에게 실수 책임을 물을 수 있느냐?”라고.
하지만 우리는 AI를 독립적 주체로 허용하자는 것이 아닙니다. 책임 있는 인간—개발자, 병원, 규제 기관—이 항상 뒤에 서 있습니다. 기술을 두려워하기보다, 그것을 책임 있게 다스리는 제도를 만드는 것이 우리의 몫입니다.

오늘 우리가 선택해야 할 것은, 완벽한 기술을 기다리는 것인지, 아니면 imperfect but life-saving technology를 지금 당장 품는 것인지입니다.
우리는 후자를 선택합니다. 생명을 기다리게 해서는 안 됩니다.


반대 측 개회 발언

안녕하세요. 오늘 이 토론의 핵심은 단순한 기술 수용 문제가 아닙니다.
‘의료 행위’란 무엇인가, 그리고 그 안에 인간이 어떤 역할을 해야 하는가에 대한 근본적 질문입니다.

우리 측은 단호히 주장합니다. 의료 행위에 대한 인공지능의 전면 허용은 위험하며, 받아들일 수 없습니다.
왜냐하면 의료는 단지 ‘정보 처리’가 아니라, 신뢰, 공감, 윤리적 책임이 깃든 인간적 관계이기 때문입니다.

첫째, AI는 책임 소재를 모호하게 만듭니다.
환자가 AI의 오진으로 사망했을 때, 누구에게 책임을 묻겠습니까? 알고리즘입니까? 프로그래머입니까? 병원장입니까? 현재 대부분의 국가에서는 AI를 법적 주체로 인정하지 않습니다. 이는 곧 책임의 공백을 의미하며, 피해자는 구제받을 길이 없어집니다. 미국 FDA는 이미 “black box AI”의 임상 사용을 제한하고 있습니다. 왜냐하면 설명 불가능한 결정은 의료 윤리와 정면 충돌하기 때문입니다.

둘째, AI는 인간의 공감을 결코 대체할 수 없습니다.
암 말기 환자에게 “생존율은 12%입니다”라고 말하는 것과, 그 사람의 손을 잡고 눈을 바라보며 같은 말을 전하는 것은 하늘과 땅 차이입니다. MIT 연구에 따르면, 환자의 치료 순응도는 의사의 공감 수준과 직접적으로 연관됩니다. AI는 통계는 알지만, 눈물의 무게는 모릅니다.

셋째, 전면 허용은 데이터 프라이버시와 사회적 불평등을 심화시킵니다.
AI는 방대한 개인 건강 데이터를 필요로 합니다. 그런데 이 데이터가 대기업이나 정부의 손에 넘어간다면? 중국에서는 이미 건강 데이터가 사회 신용 점수와 연동되고 있습니다. 또한, 고성능 AI 시스템은 자본력 있는 대형 병원만 이용 가능해, 의료 격차는 오히려 확대됩니다. “모두를 위한 AI”는 허울 좋은 구호일 뿐, 현실은 ‘돈 있는 자를 위한 초정밀 의료’가 될 것입니다.

찬성 측은 “AI는 도구일 뿐”이라고 말합니다.
하지만 도구가 너무 강력해지면, 그 도구가 우리를 재구성합니다.
칼은 음식을 자르는 도구지만, 전쟁터에서는 무기가 됩니다.
AI도 마찬가지입니다. 의료라는 성역에 무분별하게 칼을 들이민다면, 우리는 인간의 존엄을 잃을 위험이 있습니다.

따라서 우리는 단호히 말합니다.
AI는 보조 도구로 제한되어야 하며, 의료 행위의 최종 판단과 책임은 언제나 인간에게 있어야 합니다.
그것이 우리가 지켜야 할 마지막 경계입니다.

개회 발언 반박

찬성 측 두 번째 발언자 반박

존경하는 심사위원님, 방금 반대 측 동료는 매우 감동적인 이야기를 들려주셨습니다.
“눈물의 무게”, “인간의 존엄”, “마지막 경계”… 정말 아름다운 말들이죠.
하지만 제가 묻고 싶습니다. 그 존엄이 지켜지지 못한 채, 응급실 문 앞에서 숨을 거두는 5세 아이에게도 그 말들이 위로가 될까요?

반대 측의 주장은 세 가지로 요약됩니다: 책임 부재, 공감 결여, 불평등 심화.
하지만 이 모든 우려는 기술에 대한 오해, 혹은 제도적 게으름에서 비롯된 것입니다.

첫째, 책임 문제는 이미 해결 가능한 경로가 있습니다.
반대 측은 “AI에게 책임을 물을 수 없다”고 말하지만, 우리는 자동차 제조사에게 사고 책임을 묻지, 자동차 자체에게 묻지 않습니다. 마찬가지로, AI 시스템은 의료기기로 분류되며, EU와 미국에서는 이미 ‘AI as a Medical Device’ 규제 체계가 시행 중입니다. 개발자, 병원, 승인 기관이 공동 책임을 지도록 법이 정비되고 있습니다. 책임의 공백이 아니라, 책임의 재분배일 뿐입니다.

둘째, 공감을 AI와 대립시키는 것은 잘못된 이분법입니다.
의사가 진료실에서 환자의 손을 잡는 시간은 평균 18초입니다. 왜요? 행정 서류, 반복 검사, 데이터 입력에 하루 3시간을 쓰기 때문입니다. AI가 이 업무를 대신하면, 그 18초는 18분이 될 수 있습니다. MIT와 스탠퍼드 공동 연구는 “AI 보조 진료팀이 환자 만족도를 40% 높였다”고 밝혔습니다. AI는 공감을 빼앗는 자가 아니라, 공감을 가능하게 하는 조력자입니다.

셋째, 불평등은 AI의 탓이 아니라, 우리의 선택의 결과입니다.
반대 측은 “AI가 부자만 위한 의료가 될 것”이라 했지만, 사실은 정반대입니다. 인도에서는 ‘Qure.ai’라는 오픈소스 AI가 농촌 클리닉에서 결핵을 진단합니다. 가나에서는 WHO 지원으로 AI 기반 모바일 앱이 산모 사망률을 35% 낮췄습니다. 기술은 중립적이지 않습니다. 누가 어떻게 쓰느냐에 따라 평등의 도구가 되기도, 억압의 도구가 되기도 합니다. 우리가 할 일은 AI를 막는 것이 아니라, 그것을 모두를 위한 것으로 만들기 위한 정책을 세우는 것입니다.

반대 측은 “칼이 무기가 될 수 있다”고 했습니다. 맞습니다.
하지만 그래서 우리는 칼을 금지하지 않았습니다. 대신 안전교육, 사용 규칙, 책임 제도를 만들었죠.
의료 AI도 마찬가지입니다.
두려움으로 문을 닫을 것인가, 지혜로 문을 열고 안전장치를 설치할 것인가—
오늘 우리가 선택하는 건 바로 그 지점입니다.


반대 측 두 번째 발언자 반박

찬성 측 동료는 “0.1초 더 빠른 진단이 생명을 구한다”고 했습니다.
감동적이죠. 하지만 제가 묻겠습니다.
그 0.1초가, 만약 잘못된 진단이라면?
그 0.1초가 환자를 더 빨리 죽음으로 몰아넣는 시간이라면?

찬성 측의 주장은 세 가지 환상 위에 세워졌습니다:
첫째, AI는 객관적이고 오류가 없다는 기술 신화,
둘째, 모든 사람이 스마트폰과 인터넷을 가졌다는 인프라 환상,
셋째, 병원이 AI를 도입해도 여전히 인간 의사를 존중할 것이라는 제도적 낙관주의입니다.

첫째, AI는 결코 중립적이지 않습니다.
존스홉킨스 대학의 연구를 인용하셨죠? 하지만 같은 연구는 이렇게도 말합니다: “흑인 환자에 대한 AI의 당뇨병 합병증 예측 정확도는 백인의 절반 수준이었다.” 왜요? 훈련 데이터가 80% 백인 중심이었기 때문입니다. AI는 인간의 편향을 학습하고, 그것을 수학적 권위로 포장합니다. 이건 오류가 아니라, 구조적 차별의 자동화입니다.

둘째, 접근성 민주화는 현실과 괴리된 이상론입니다.
아프리카 마을 아이가 스마트폰으로 AI 진료를 받는다? 멋진 이야기입니다.
하지만 그 마을에 전기가 들어오나요? 4G가 터지나요? 스마트폰을 살 돈이 있나요?
세계은행에 따르면, 사하라 이남 아프리카의 60%는 여전히 기본 전기조차 없이 살아갑니다.
AI 진단 앱은 그들에게 디지털 유령일 뿐입니다. 진짜 의료 평등은 AI가 아니라, 의사 한 명, 간호사 한 명, 약 한 알에서 시작됩니다.

셋째, 인간 역할의 고도화는 자본의 논리에 무너집니다.
덴마크 사례를 들었지만, 미국에서는 UnitedHealth가 AI 도입 후 방사선과 의사를 30% 감축했습니다.
왜요? “비용 절감”이 우선이니까요.
AI가 인간을 해방시킨다고요? 현실은 인간을 대체하고 있습니다.
그리고 그 대체된 자리에는, 설명 불가능한 알고리즘만 남습니다.

찬성 측은 “제도를 만들면 된다”고 말합니다.
하지만 기술은 언제나 제도보다 빠릅니다.
AI가 의료 현장에 침투한 지 5년,
그동안 관련 법률은 거의 제자리걸음입니다.
우리는 완성되지 않은 실험실을 병원으로 삼고, 환자를 실험 쥐로 삼고 있는 것입니다.

따라서 우리는 단호히 말합니다.
AI는 보조 도구로 제한되어야 하며,
의료 행위의 최종 판단과 윤리적 책임은 반드시 인간의 손에 있어야 합니다.
그것이 우리가 지켜야 할, 마지막이자 유일한 경계입니다.

질의응답

찬성 측 세 번째 발언자 질의

질문 1 (반대 측 1번)

찬성 측 3번:
반대 측 첫 번째 발언자님께 묻겠습니다.
귀측은 “AI 오진 시 책임 주체가 불명확하다”고 주장하셨습니다. 그렇다면, 현재도 MRI 기기나 심전도 장비가 오작동해 환자가 피해를 입었을 때, 기기를 법적 주체로 처벌합니까? 아니면 제조사, 병원, 운영자가 공동 책임을 집니까?
AI도 동일하게 ‘의료기기’로 규제하고, 개발자·승인기관·사용 병원이 연대책임을 지는 법적 체계를 구축하면, 귀측의 우려는 해소되지 않겠습니까?

반대 측 1번:
…그 점은 일리 있는 지적입니다. 그러나 기존 의료기기는 설명 가능한 메커니즘을 갖추고 있습니다. 반면 딥러닝 기반 AI는 내부 판단 과정이 ‘블랙박스’입니다. 누가 어떻게 책임을 나눌지조차 알 수 없는 상황에서, 단순히 ‘공동 책임’이라고 말하는 것은 책임 회피의 미명일 뿐입니다.


질문 2 (반대 측 2번)

찬성 측 3번:
반대 측 두 번째 발언자님께 여쭙겠습니다.
귀측은 “AI는 눈물의 무게를 모른다”고 하셨죠. 그런데 만약 AI가 의사의 서류 작업 70%를 대신해, 의사가 하루에 환자와 30분 더 대화할 수 있게 된다면, 그 추가된 시간은 ‘눈물의 무게’를 더 깊이 이해하는 데 쓰이지 않겠습니까?
즉, AI는 공감을 대체하는 것이 아니라, 공감할 시간을 만들어주는 도구가 아닐까요?

반대 측 2번:
…시간이 늘어난다고 해서 공감이 자동으로 깊어지지는 않습니다. 오히려 병원이 “AI가 진료를 다 했으니, 의사는 짧게만 만나라”고 지시한다면? 자본은 효율을 추구하지, 공감을 추구하지 않습니다. 귀측의 가정은 너무 이상적입니다.


질문 3 (반대 측 4번)

찬성 측 3번:
마지막으로, 반대 측 네 번째 발언자님께 질문드리겠습니다.
귀측은 “AI가 의료 격차를 심화시킨다”고 하셨지만, 르완다에서는 드론으로 AI 기반 응급 약품을 낙하시키고, 인도 농촌에서는 스마트폰 앱으로 당뇨병을 관리합니다.
인프라가 부족한 지역일수록, AI는 ‘없는 것’보다 ‘불완전한 것’이 더 낫지 않습니까?
“완벽한 평등”을 기다리느라, 지금 당장 생명을 구할 수 있는 기술을 거부하는 것이 진정한 정의입니까?

반대 측 4번:
…르완다 사례는 인상 깊습니다. 하지만 그 드론 시스템도 정부와 글로벌 기업의 막대한 투자가 있었기에 가능했습니다. 대부분의 개발도상국은 그런 지원을 받지 못합니다.
‘기술이 있다’는 것과 ‘모두가 접근할 수 있다’는 것은 전혀 다른 문제입니다. 우리는 구조적 불평등을 외면한 기술 낙관주의를 경계해야 합니다.


찬성 측 질의 요약

반대 측은 우리의 질문에 대해 부분적으로 인정하면서도, 여전히 완벽함을 요구하고 계십니다.
책임 체계는 이미 존재하고, 공감은 시간 확보로 강화될 수 있으며, 불완전한 기술이라도 생명을 구할 수 있다는 점—이 세 가지 핵심을 피하지 못하셨습니다.
그럼에도 불구하고 “블랙박스”니 “이상적”이니 “구조적 불평등”이니 하며, 현실 속 해결책을 거부하고 계십니다.
우리는 완벽한 세상을 기다리지 않습니다. 오늘, 이 순간에도 AI가 구할 수 있는 생명이 있기 때문입니다.


반대 측 세 번째 발언자 질의

질문 1 (찬성 측 1번)

반대 측 3번:
찬성 측 첫 번째 발언자님께 질문드리겠습니다.
귀측은 “AI가 의료 오류를 30% 줄인다”고 하셨지만, 존스홉킨스 연구는 백인 남성 데이터로 훈련된 AI를 기반으로 했습니다.
그렇다면 흑인 여성이나 아시아 노인에게는 오히려 오진률이 치솟지 않겠습니까?
‘정확도’라는 숫자 뒤에 숨은 편향을, 귀측은 왜 무시합니까?

찬성 측 1번:
…그 점은 매우 중요한 지적입니다. 그러나 편향은 AI 고유의 문제가 아니라, 데이터 수집 시스템의 문제입니다. 우리가 해야 할 일은 AI 사용을 중단하는 것이 아니라, 더 다양하고 포괄적인 데이터셋을 구축하는 것입니다.
실제로 구글 헬스는 최근 아프리카·라틴아메리카 데이터를 포함해 편향을 60% 감소시켰습니다. 문제를 보고 고치는 것이 기술의 본질입니다.


질문 2 (찬성 측 2번)

반대 측 3번:
찬성 측 두 번째 발언자님께 여쭙겠습니다.
귀측은 “AI가 인간 의사를 고도화시킨다”고 하셨지만, 미국 병원들은 이미 AI 도입 후 초과 근무 간호사를 40% 감원했습니다.
자본이 AI를 ‘보조 도구’가 아니라 ‘비용 절감 수단’으로 이용한다면, 귀측의 이상은 현실의 자본 논리 앞에서 종이 호랑이가 되지 않겠습니까?

찬성 측 2번:
…감원은 기술의 문제가 아니라 정책의 실패입니다. 우리는 AI 도입과 동시에 ‘의료 인력 재교육 프로그램’과 ‘환자 대면 시간 최소화 금지법’을 함께 추진해야 합니다.
기술은 중립적이며, 그것을 어떻게 쓰느냐는 우리 사회의 선택입니다. 자본의 탐욕을 AI의 탓으로 돌리는 것은 책임 전가입니다.


질문 3 (찬성 측 4번)

반대 측 3번:
마지막으로, 찬성 측 네 번째 발언자님께 묻겠습니다.
귀측은 “AI는 인간성을 회복시킨다”고 하셨지만, 만약 AI가 환자의 유전자 정보를 분석해 “이 아이는 장애를 가질 확률이 85%입니다. 출산을 권장하지 않습니다”라고 조언한다면—
그 결정을 누가 내려야 합니까?
윤리적 판단의 마지막 문턱은, 결코 알고리즘이 넘어서면 안 되지 않습니까?

찬성 측 4번:
…물론입니다. 그런 결정은 항상 인간이 내려야 합니다. AI는 단지 정보를 제공할 뿐, 선택은 부모와 의료진이 합니다.
우리가 주장하는 ‘전면 허용’은 ‘모든 결정을 AI에 맡긴다’는 뜻이 아니라, 진단, 모니터링, 데이터 분석 등 기술적 영역에서의 전면 활용을 의미합니다. 윤리적 판단은 인간의 성역으로 남겨둘 것입니다.


반대 측 질의 요약

찬성 측은 우리의 질문에 대해 “정책으로 해결하겠다”, “기술은 중립적이다”, “우리는 그런 걸 말한 적 없다”고 반복하셨습니다.
하지만 현실은 이미 자본이 AI를 인력 대체 수단으로 삼고 있고, 편향된 AI가 소수자를 차별하고 있으며, 윤리적 경계가 무너지고 있습니다.
귀측의 답변은 모두 ‘미래의 약속’일 뿐, 현재의 위험에 대한 실질적 방책은 없습니다.
우리는 ‘좋은 의도’가 아니라, ‘안전한 실행’을 요구합니다.
그러므로 AI는 보조 도구로 엄격히 제한되어야 하며, 의료 행위의 최종 책임은 언제나 인간에게 있어야 합니다.

자유 토론

찬성 1번:
방금 반대 측께서 “책임의 공백”이라고 하셨죠? 그런데 이미 미국, 유럽, 한국 모두 AI를 ‘의료기기’로 분류하고 있습니다. MRI나 초음파 기기도 오작동하면 제조사와 병원이 공동 책임을 지죠. AI도 똑같습니다.
더 중요한 건, 인간 의사도 실수합니다. 그런데 그 실수는 ‘사람이라서 어쩔 수 없지’ 하고 넘어가지만, AI 실수는 마치 악마처럼 몰아갑니다.
이건 기술 혐오가 아니라, 이중 잣대 아닐까요?

반대 1번:
그러면 묻겠습니다. MRI는 왜 블랙박스가 아니고, AI는 왜 블랙박스인가요?
MRI는 물리 법칙에 따라 작동하지만, 딥러닝 AI는 ‘왜 이 결론을 내렸는지’ 설명할 수 없습니다.
“98% 확신합니다”라고 말해도, 그 근거가 환자의 피부색인지, 병변 크기인지, 아니면 훈련 데이터의 잡음인지—우리는 모릅니다.
의료는 설명 가능한 과학이어야 합니다. 설명 불가능한 권위는 권위주의입니다.

찬성 2번:
그럼 이렇게 물어보죠.
아프리카 어느 마을에 전기가 간신히 들어왔고, 스마트폰 하나로 AI가 말라리아를 진단했습니다.
물론 완벽하진 않아요. 정확도 85%예요.
하지만 그 마을엔 의사가 없고, 다음 병원까지 200km입니다.
이때 “85%라서 안 돼”라고 말하는 게 윤리적인가, 아니면 “85%라도 써서 아이를 살리는 게 윤리적인가?”
완벽을 기다리는 건 사치입니다.
생명은 기다리지 않습니다**.

반대 2번:
하지만 그 15%의 오진은 누가 책임지나요?
그리고 더 큰 문제는—자본이 이걸 이용한다는 점입니다.
미국의 한 병원은 AI 도입 후 간호사를 30% 감원했습니다. 이유? “AI가 모니터링하니까 괜찮다”고요.
결과는요? 환자 낙상 사고가 두 배로 늘었습니다.
AI는 비용 절감 도구로 전락하고 있고, 인간은 그 부작용의 희생양이 되고 있습니다.

찬성 3번:
그건 AI의 잘못이 아니라, 관리자의 잘못입니다!
칼을 들고 사람을 해치면 칼을 금지하나요? 범죄자를 처벌하죠.
오히려 AI 덕분에 의사들은 서류 작업에서 해방되고 있습니다.
덴마크 의사들은 하루 평균 2시간 더 환자와 눈을 맞추고 있죠.
이게 인간성의 상실입니까? 아니요, 인간성의 회복입니다.

반대 3번:
그렇다면 이렇게 묻겠습니다.
당신의 가족이 말기 암 판정을 받았을 때,
AI 챗봇이 “통계상 6개월 남았습니다”라고 말하는 걸 원하시나요?
아니면, 손을 꼭 잡고 눈물을 흘리며 “함께 싸워보자”고 말하는 인간 의사의 얼굴을 보고 싶으신가요?
의료는 정보 전달이 아니라, 존엄한 작별과 희망의 공간입니다.
그 공간에 코드와 서버가 들어와선 안 됩니다.

찬성 4번:
AI는 인간을 대체하려는 존재가 아닙니다.
오히려 인간이 인간다워지도록 돕는 거울입니다.
우리가 어떤 가치를 넣느냐에 따라, AI는 편향의 도구가 될 수도 있고, 평등의 도구가 될 수도 있어요.
기술 자체는 중립입니다.
문제는 우리가 그것을 어떻게 만들고, 어떻게 감시하느냐입니다.
그 책임을 회피하면서 “AI는 위험하다”고 말하는 건,
불을 무서워해 조명을 거부하는 어둠 속의 선택입니다.

반대 4번:
마지막으로 강조합니다.
의료는 데이터의 문제가 아니라, 관계의 문제입니다.
환자는 “내 병명이 뭐야?”보다 “내가 살아남을 수 있을까?”를 묻습니다.
그 질문에는 통계가 아니라, 믿을 수 있는 눈빛과 따뜻한 손길이 답이 됩니다.
AI는 아무리 발전해도, 인간의 얼굴을 가질 수 없습니다.
그래서 우리는 단호히 말합니다.
의료의 최종 결정권은, 언제나 인간의 손에 있어야 합니다.

최종 발언

찬성 측 최종 발언

심사위원님, 오늘 우리는 단지 “AI를 쓸 것인가”를 논한 게 아닙니다.
우리는 “누구의 생명을 먼저 구할 것인가”를 묻고 있습니다.

반대 측은 AI가 설명 불가능하다고 말합니다. 하지만 인간 의사도 때로는 “직감”으로 진단합니다. 그 직감이 통계적 근거 없이 나온 것이라면, 그것은 AI보다 더 위험하지 않을까요?
우리는 AI에게 ‘완벽한 설명’을 요구하면서, 인간에게는 ‘경험’이라는 이름으로 오류를 용인해 왔습니다. 이 이중 잣대를 이제는 거둬야 합니다.

그리고 반대 측은 “AI는 눈물의 무게를 모른다”고 했습니다. 맞습니다. AI는 울지 못합니다.
하지만 AI가 서류 작업 3시간을 대신해주면, 의사는 그 시간에 환자의 손을 잡고 30분 더 이야기할 수 있습니다.
AI는 공감을 대체하지 않습니다. 공감할 시간을 만들어줍니다.

또한, “데이터 프라이버시”와 “불평등”을 걱정하셨죠. 그런데 지금 이 순간에도 전기가 없어, 인터넷이 없어, 의사 한 명 없는 마을에서 아이들이 말라리아로 죽어가고 있습니다.
그들에게 “85% 정확도의 AI라도 필요하다”고 말하는 것이 무책임일까요?
아니면, “완벽하지 않으니 쓰지 말라”고 하는 것이 더 무책임할까요?

기술은 중립입니다. 칼이 음식을 자르기도 하고, 사람을 해치기도 하듯이요.
하지만 우리가 해야 할 일은 칼을 버리는 것이 아니라, 칼을 어떻게 쥘 것인가를 정하는 것입니다.
이미 전 세계 수십 개국은 AI를 의료기기로 분류해 개발자·병원·규제기관이 연대책임을 지도록 법제화했습니다.
이것이 바로 우리가 원하는 ‘책임 있는 혁신’입니다.

오늘 우리가 선택해야 할 것은,
완벽한 미래를 기다리는 것인지,
아니면 imperfect but life-saving technology를 지금 이 자리에서 품는 것인지
입니다.

우리는 후자를 선택합니다.
왜냐하면—
생명은 기다리지 않기 때문입니다.


반대 측 최종 발언

찬성 측은 “생명을 구하자”고 열정적으로 외쳤습니다.
하지만 우리가 묻고 싶습니다.
“누구의 생명을, 어떤 대가로 구하는 것인가?”

AI는 빠르고 정확할 수 있습니다. 그러나 그것이 의료의 전부가 아님을 우리는 알고 있습니다.
의료는 데이터가 아니라, 눈빛과 손끝에서 시작되는 신뢰의 행위입니다.
암 환자가 “12%”라는 숫자를 들었을 때 필요한 건, 더 정밀한 알고리즘이 아니라,
옆에 앉아 “함께 싸우자”고 말해주는 인간입니다.

찬성 측은 “책임 체계가 있다”고 말했습니다.
하지만 현실은 어떨까요?
미국에서는 이미 병원이 AI 오류를 이유로 간호사를 해고했습니다.
자본은 “AI가 결정했다”는 말로 책임을 회피하고,
결국 가장 약한 고리—현장 의료인과 환자—가 희생됩니다.
이것이 정말 ‘책임 있는 혁신’입니까?

그리고 “의료 취약 지역에 AI가 도움된다”고 하셨죠.
하지만 전기가 끊기면, 인터넷이 끊기면, 스마트폰이 없으면—
그 AI는 단지 비싼 장식품이 됩니다.
진짜 해결책은 AI가 아니라, 의사를 파견하고, 병원을 짓고, 인프라를 만드는 것입니다.
기술로 구조적 불평등을 가리는 것은, 문제를 해결하는 것이 아니라 눈속임입니다.

우리는 AI를 완전히 거부하지 않습니다.
하지만 ‘전면 허용’은 너무 위험합니다.
의료는 실험실이 아닙니다.
여기서 실패는 데이터 오류가 아니라, 한 사람의 죽음입니다.

따라서 우리는 단호히 말합니다.
AI는 보조 도구로 남아야 하며,
의료 행위의 최종 판단과 윤리적 책임은 반드시 인간에게 있어야 합니다.

왜냐하면—
의료의 중심에는 기술이 아니라, 인간이 있어야 하기 때문입니다.

심사위원님,
오늘 우리가 지켜야 할 것은 효율이 아니라,
인간의 존엄입니다.