Download on the App Store

딥페이크(Deepfake) 기술 규제를 위해 강력한 법적 처벌을 도입해야 하는가?

개회 발언

찬성 측 개회 발언

존경하는 심사위원님, 그리고 오늘 이 자리에 함께하신 모든 분들께 묻겠습니다.
혹시 지난주, 자신이 한 말도 하지 않은 영상이 SNS에 퍼져 나가는 상상을 해보셨나요?
그 영상은 너무나도 진짜처럼 보였고, 아무리 부정해도 사람들은 이미 믿어버렸습니다.
이것이 바로 딥페이크 기술이 우리 일상에 던지는 현실입니다.

우리 측은 분명히 주장합니다. 딥페이크 기술의 악용을 막기 위해 강력한 법적 처벌을 도입해야 합니다.
왜냐하면 이 기술은 단순한 ‘가짜 영상’이 아니라, 개인의 인격과 사회의 신뢰를 해체하는 디지털 폭탄이기 때문입니다.

첫째, 딥페이크는 기본권을 침해하는 무기입니다.
누군가의 얼굴과 목소리를 도용해 음란물, 폭력 장면, 허위 발언을 만들어낸다면, 그 피해자는 단지 명예만 잃는 게 아닙니다.
직장에서 해고되고, 가족과 단절되며, 심지어 자살까지 생각하게 됩니다.
실제로 한국에서도 여성 연예인과 일반 시민을 대상으로 한 딥페이크 성착취물이 수천 건 유포된 바 있습니다.
이것은 표현의 자유가 아니라, 디지털 성폭력입니다.

둘째, 현재의 법적 규제는 턱없이 부족합니다.
정보통신망법이나 저작권법으로는 딥페이크의 특수성을 포착할 수 없습니다.
악의적 제작자들은 ‘패러디’나 ‘AI 실험’이라며 면책을 주장하고, 플랫폼은 ‘사용자 콘텐츠’라며 책임을 회피합니다.
자율 규제는 이미 실패했습니다.
기술은 매년 정교해지고 있는데, 법은 여전히 20세기 감성으로 머물러 있습니다.

셋째, 강력한 처벌은 예방의 시작입니다.
형사처벌이 없다면, 누구든 쉽게 타인을 조롱하거나 협박할 수 있습니다.
‘처벌이 두려워 만들지 않는다’는 것이 아니라, ‘처벌이 있어야 만들지 않겠다는 선택을 할 수 있다’는 것입니다.
법은 단지 벌을 주는 도구가 아니라, 사회가 어떤 행위를 용납하지 않는지를 명확히 하는 도덕적 신호입니다.

꿈을 지키는 방법은 꿈을 숨기는 것이 아니라, 꿈을 해치는 자에게 경고를 보내는 것입니다.
딥페이크의 악용은 이제 더 이상 ‘기술의 부작용’이 아니라, 의도된 폭력입니다.
이를 막기 위해, 우리는 법이라는 마지막 방어선을 세워야 합니다.


반대 측 개회 발언

심사위원님, 여러분.
오늘 우리가 논의하는 것은 단지 ‘딥페이크’라는 기술이 아닙니다.
우리가 선택할 미래의 모습입니다.
기술을 두려워해 규제로 묶을 것인가, 아니면 책임감 있게 활용할 지혜를 키울 것인가—
이것이 진짜 질문입니다.

우리 측은 단호히 주장합니다. 딥페이크 기술 규제를 위해 강력한 법적 처벌을 도입해서는 안 됩니다.
왜냐하면 이는 표현의 자유를 억압하고, 기술 혁신을 위축시키며, 오히려 문제 해결을 어렵게 만들기 때문입니다.

첫째, 딥페이크 기술 자체는 중립적입니다.
영화 제작, 역사 재현, 의료 시뮬레이션, 심지어 장애인을 위한 보조 기술로도 사용됩니다.
미국 할리우드에서는 배우의 젊은 모습을 딥페이크로 복원해 작품을 완성했고,
한국의 한 스타트업은 고인의 음성을 재현해 가족에게 위로를 전했습니다.
이 모든 것을 ‘잠재적 범죄’라며 처벌의 그물로 덮는다면,
우리는 진보의 날개를 스스로 잘라버리는 꼴이 됩니다.

둘째, 강력한 처벌은 문제를 해결하지 못합니다.
딥페이크는 이미 오픈소스로 공개되어 누구나 만들 수 있습니다.
한국에서 처벌한다고 해서, 해외 서버에서 제작된 콘텐츠가 사라지겠습니까?
오히려 암시장과 익명성만 강화될 뿐, 피해자는 여전히 보호받지 못합니다.
더 큰 문제는, 처벌 중심 접근이 피해자의 2차 가해를 유발할 수 있다는 점입니다.
“왜 네 사진이 돌아다녔어?”라는 질문이 피해자를 또다시 고통스럽게 만듭니다.

셋째, 더 나은 대안이 있습니다.
플랫폼에 딥페이크 콘텐츠 표시 의무를 부과하고,
학교에서 미디어 리터러시 교육을 강화하며,
AI 기반 검출 기술을 공공재로 개발하는 것이 훨씬 효과적입니다.
실제로 유럽연합(EU)은 ‘AI 법안’에서 딥페이크를 금지하지 않고,
투명성과 책임성을 요구하는 방향으로 규제를 설계했습니다.

칼이 사람을 해칠 수도 있지만, 그래서 모든 칼을 금지할 것인가요?
요리도 하고, 수술도 하고, 예술도 만드는 도구인데 말입니다.
딥페이크도 마찬가지입니다.
우리가 필요한 것은 두려움이 아니라 이해, 처벌이 아니라 책임입니다.
강력한 법적 처벌은 단기적 해법처럼 보이지만, 장기적으로는 자유와 혁신을 희생시키는 위험한 선택입니다.


개회 발언 반박

찬성 측 두 번째 발언자 반박

존경하는 심사위원님, 방금 반대 측은 딥페이크를 “칼”에 비유했습니다.
하지만 제가 묻고 싶습니다.
칼은 사람을 찌르려고 만들어진 게 아닙니다. 그런데 딥페이크는요?

딥페이크 기술의 핵심은 ‘누군가를 완벽하게 흉내 내는 것’입니다.
이것은 요리나 수술을 위한 도구가 아니라, 타인의 정체성을 탈취하는 디지털 열쇠입니다.
반대 측이 말하는 영화 제작이나 고인 재현은 사실상 전체 사용의 0.1%에도 못 미칩니다.
그러나 99% 이상은 음란물, 협박, 정치적 조작, 사기에 쓰이고 있습니다.
이를 “중립적 기술”이라며 면죄부를 주는 것은,
마치 총기 난사 사건이 일어날 때마다 “총은 사냥에도 쓰인다”고 변명하는 것과 다를 바 없습니다.

더욱 우려스러운 건, 반대 측이 “강력한 처벌은 암시장만 키운다”고 주장한 점입니다.
그렇다면 우리가 마약, 테러, 아동 성착취물을 규제하지 말아야 할까요?
이런 논리는 형벌 자체의 정당성을 부정하는 것입니다.
물론 해외 서버에서 제작된 콘텐츠를 완전히 막을 순 없습니다.
하지만 국내에서의 제작·유포·소비에 대한 책임을 명확히 하지 않으면,
우리는 피해자에게 “네가 조심하지 않은 탓”이라고 말하는 것과 같습니다.

그리고 반대 측이 언급한 EU의 사례—이는 사실과 다릅니다.
EU AI 법안은 고의적 딥페이크 조작에 대해 형사처벌을 포함한 엄격한 책임을 명시하고 있습니다.
단지 ‘표시 의무’만 요구하는 게 아니라, 허위 정보로 민주주의를 위협하는 행위에 대해선 최대 7년 징역을 규정합니다.
즉, EU도 “이해와 책임”만으로는 부족하다고 판단한 것이죠.

우리가 요구하는 건 기술 금지가 아닙니다.
악의적 제작과 유포에 대한 명확한 법적 경계선입니다.
미디어 리터러시 교육도, 검출 기술도 중요합니다.
하지만 그것들이 작동하려면, ‘이건 해서는 안 된다’는 사회적 합의를 법으로 굳혀야 합니다.
그게 바로 강력한 법적 처벌의 본질입니다.


반대 측 두 번째 발언자 반박

찬성 측은 방금 “딥페이크는 디지털 폭탄”이라 했습니다.
감정적으로는 충분히 공감합니다.
하지만 공포는 좋은 법률을 만들지 않습니다.

첫째, 찬성 측은 “현행법이 부족하다”고 주장하지만,
이미 우리 법체계엔 명예훼손죄, 성폭력처벌법, 정보통신망법, 개인정보보호법이 존재합니다.
딥페이크 음란물은 이미 성폭력으로 처벌되고 있고, 허위 영상으로 기업을 훼손하면 손해배상도 가능합니다.
그럼에도 불구하고 문제는 줄지 않고 있습니다.
왜일까요?
법이 없어서가 아니라, 집행이 어렵기 때문입니다.
그렇다면 해법은 ‘더 무거운 형벌’이 아니라, 수사 역량 강화, 국제 공조, 플랫폼 책임 확대입니다.

둘째, 찬성 측은 “강력한 처벌이 예방 효과가 있다”고 했지만,
이건 인과관계를 착각한 전형적인 오류입니다.
실제로 미국 캘리포니아주는 딥페이크 선거 영상에 대해 형사처벌을 도입했지만,
2024년 대선에서 여전히 수십 건의 조작 영상이 유포되었습니다.
왜냐하면 범죄자는 처벌 가능성보다는 들키지 않을 가능성에 베팅하기 때문입니다.
오히려 모호한 법 조항 아래에서,
대학생이 만든 패러디 영상도 ‘형사처벌 대상’이 될 수 있다면,
표현의 자유는 얼어붙고, 창의성은 사라집니다.

셋째, 찬성 측은 “법은 도덕적 신호”라고 했습니다.
맞습니다. 하지만 그 신호가 “모든 딥페이크는 잠재적 범죄”라는 낙인이라면,
우리는 기술에 대한 불신만 키우게 됩니다.
AI로 장애인의 목소리를 되살리는 연구자,
역사 교육을 위해 독립운동가를 재현하는 교사,
이들이 모두 ‘잠재적 범죄자’ 취급을 받아야 할까요?

우리가 진짜 해결해야 할 질문은 이렇습니다:
“어떻게 하면 기술의 해악을 막으면서도, 그 선의를 살릴 수 있을까?”
그 답은 ‘처벌’이 아니라 규칙, 투명성, 교육, 기술적 방어망의 조합에 있습니다.
강력한 법적 처벌은 단순해 보이지만,
실제로는 복잡한 문제를 단선적으로 바라보는 위험한 환상입니다.

우리는 딥페이크를 막기 위해 법을 만들어야 한다는 데 동의합니다.
하지만 형사처벌 중심의 접근은 칼로 물 베기이며,
오히려 민주주의의 근간인 표현과 혁신의 자유를 스스로 포기하는 꼴이 될 것입니다.


질의응답

찬성 측 세 번째 발언자 질의

찬성 측 세 번째 발언자 질문

찬성 측 세 번째 발언자:
존경하는 심사위원님, 이제 제가 반대 측에 세 가지 질문을 드리겠습니다.
각 질문은 반드시 답변해 주셔야 하며, 회피는 허용되지 않습니다.

질문 1 (반대 측 첫 번째 발언자):
귀측은 딥페이크를 “중립적 기술”이라 하셨고, 영화나 고인 재현 등 선의적 사례를 들었습니다.
그러나 한국 사이버수사국 자료에 따르면, 2023년 적발된 딥페이크 콘텐츠 중 98.7%가 성착취물 또는 협박 목적이었습니다.
이 현실을 감안할 때, “기술 중립성”을 이유로 강력한 처벌을 거부하는 것은, 가해자의 의도를 묻지 않고 피해자의 고통만 외면하는 것 아닙니까?

반대 측 첫 번째 발언자 답변:
기술 자체가 중립이라는 점은 변함없습니다. 다만, 악용 비율이 높다는 점은 인정합니다.
그러나 그 해법이 ‘모든 딥페이크 제작자를 잠재적 범죄자로 보는 법’이 되어서는 안 됩니다.
우리는 의도와 맥락을 구분하는 정교한 규제가 필요하지, 일괄적 형사처벌은 아닙니다.

질문 2 (반대 측 두 번째 발언자):
귀측은 “마약이나 테러도 완전히 막을 수 없지만, 그래서 규제를 포기하진 않는다”는 우리 주장을 비판하셨습니다.
그렇다면 묻겠습니다.
아동 성착취물을 유포하는 행위도 해외 서버에서 이루어지는데, 우리는 왜 그것을 형사처벌합니까?
혹시 딥페이크 성착취물은 그것보다 ‘덜 심각한 범죄’라고 보시는 건가요?

반대 측 두 번째 발언자 답변:
그런 의미로 말한 적 없습니다. 아동 성착취물은 명백한 중대 범죄입니다.
다만, 딥페이크는 범주가 훨씬 넓고 모호하기 때문에, 동일한 접근은 위험합니다.
예를 들어, AI로 만든 가상 인물이라면? 실제 인물과 유사하지만 동의를 받은 경우라면?
그런 경우까지 형사처벌로 묶는다면, 표현의 자유가 침해됩니다.

질문 3 (반대 측 네 번째 발언자):
귀측은 “플랫폼의 자율 규제와 미디어 리터러시로 충분하다”고 주장하셨습니다.
그러나 현재 네이버, 유튜브, 인스타그램은 딥페이크 신고 후 평균 14일 이상 소요되며, 그사이 피해는 확산됩니다.
‘자율’을 기다리는 동안 피해자가 자살하거나 사회적 관계가 파괴되는 것을, 귀측은 ‘필요한 희생’으로 보십니까?

반대 측 네 번째 발언자 답변:
물론 그런 결과를 원하지 않습니다.
하지만 강력한 처벌이 바로 그 피해를 막아준다는 증거도 없습니다.
오히려 신속한 삭제 의무와 AI 검출 시스템 도입이 더 직접적인 해결책입니다.
법적 처벌은 최후의 수단이어야지, 유일한 수단이 돼선 안 됩니다.

찬성 측 세 번째 발언자 – 질의 요약

반대 측의 답변을 종합하면 다음과 같습니다.
첫째, 악용 비율이 98% 이상임에도 불구하고 ‘기술 중립성’을 고집하며 책임을 회피하고 있습니다.
둘째, 딥페이크 성착취물과 아동 성착취물 간의 피해 심각성을 동등하게 인식하지 못한 채,
형사처벌의 적용 기준을 달리 설정하려는 태도를 보였습니다.
셋째, 자율 규제의 실패가 명백함에도 불구하고,
그 부담을 피해자에게 전가하는 구조를 유지하려는 경향이 확인됩니다.

이러한 입장은 결국 가해자 중심의 접근으로 흐를 위험이 있으며,
피해자 보호라는 핵심 과제에서 벗어난다고 판단됩니다.


반대 측 세 번째 발언자 질의

반대 측 세 번째 발언자 질문

반대 측 세 번째 발언자:
이제 제가 찬성 측에 세 가지 질문을 드리겠습니다.

질문 1 (찬성 측 첫 번째 발언자):
귀측은 “현행법은 딥페이크를 포착하지 못한다”고 하셨습니다.
그런데 성폭력처벌법 제14조의2는 ‘정보통신망을 이용한 성착취 영상’을 명확히 처벌하고 있고,
실제로 2023년 딥페이크 음란물 제작자 37명이 이 조항으로 기소되었습니다.
그렇다면 왜 기존 법 집행을 강화하지 않고, 새로운 강력한 처벌을 요구하시는 겁니까?
혹시 정치적 상징성을 위한 과잉 입법은 아닌지요?

찬성 측 첫 번째 발언자 답변:
좋은 지적입니다.
그러나 성폭력처벌법은 ‘실제 인물’에 한정되며, AI가 생성한 가상 인물이나 목소리만 도용한 경우는 적용되지 않습니다.
또한, ‘허위 사실 유포’나 ‘선거 조작’ 등 다른 형태의 딥페이크는 전혀 커버되지 않습니다.
우리는 모든 유형의 악의적 딥페이크를 포괄하는 특별법이 필요합니다.

질문 2 (찬성 측 두 번째 발언자):
귀측은 “EU도 형사처벌을 도입했다”고 주장하셨습니다.
하지만 EU AI 법안 제5조는 ‘공공 안보, 선거, 사법 절차’에 한해 금지하며,
일반적인 딥페이크는 투명성 표시만 요구합니다.
그리고 미국 캘리포니아주는 딥페이크 선거 영상에 형사처벌을 도입했지만,
2024년 대선에서 조작 영상이 여전히 유포되었습니다.
이 사례들을 보면, 처벌이 실질적 억제력이 없다는 점이 증명되지 않았습니까?

찬성 측 두 번째 발언자 답변:
캘리포니아의 사례는 법 시행 초기 단계이며, 처벌보다는 검출·삭제 시스템 미비가 문제였습니다.
EU도 “금지”와 “형사처벌”을 구분하지만, 고의적 조작에 대해서는 명백히 형사 책임을 물립니다.
중요한 건, 법이 있느냐 없느냐가 아니라, 사회가 그 행위를 ‘용납하지 않는다’고 선언하느냐입니다.
그 선언 없이는 아무 기술도 작동하지 않습니다.

질문 3 (찬성 측 네 번째 발언자):
귀측이 제안하는 법안이 통과된다면,
한 대학생이 대통령을 풍자한 딥페이크 영상을 SNS에 올렸을 때,
그는 형사처벌 대상이 됩니까?
만약 그렇다면, 이 법은 표현의 자유를 위축시키는 검열 도구가 되지 않겠습니까?

찬성 측 네 번째 발언자 답변:
아닙니다.
우리 법안은 ‘고의적 허위 정보 유포’, ‘타인의 명예·인격권 침해’, ‘공공의 안녕 질서 저해’를 구성요건으로 합니다.
단순 풍자나 패러디는 사회통념상 용인되는 표현으로, 처벌 대상이 아닙니다.
오히려 지금처럼 법이 모호할 때야말로, 창작자들이 스스로 검열하게 됩니다.

반대 측 세 번째 발언자 – 질의 요약

찬성 측의 답변을 종합하면 다음과 같은 논리적 한계가 드러납니다.
첫째, 기존 법이 일부 적용되고 있음에도 불구하고, 법적 공백이 있는 것처럼 과장하고 있습니다.
둘째, 캘리포니아와 EU 사례를 선택적으로 해석하며, 처벌의 실효성을 과대평가하고 있습니다.
셋째, “풍자는 처벌되지 않는다”고 명시했지만, 법 조항의 해석이 모호할 경우 사법부의 재량에 의해 자유가 침해될 가능성을 간과하고 있습니다.

이는 좋은 의도로 시작된 법이, 결국 표현과 창의를 억누르는 도구로 전락할 수 있음을 경고하는 것입니다.


자유 토론

찬성 1번:
반대 측은 계속 “기술은 중립적”이라고 말합니다. 그런데요, 기술이 중립적이란 건 누가 판단하나요?
딥페이크로 만든 음란물에 피해자의 얼굴이 붙어 있고, 그 영상이 10만 번 공유됐다면—
그건 ‘중립’이 아니라 디지털 성폭력입니다.
한국 여성청년 10명 중 7명이 딥페이크 피해를 걱정한다고 답했습니다.
이런 현실을 “미디어 리터러시로 해결하자”고 넘길 수 있을까요?
리터러시 교육 받기 전에 이미 인생이 무너진 사람이 수천 명인데 말입니다.

반대 1번:
그 감정, 충분히 이해합니다. 하지만요, 감정은 법률이 될 수 없습니다.
딥페이크로 고인을 추모하거나, 뇌졸중 환자가 AI 목소리로 가족과 대화하는 사례도 있습니다.
이 모든 걸 ‘잠재적 범죄’로 몰아가면,
우리는 선의를 가진 사람까지 죄인 취급하게 됩니다.
오히려 처벌보다 중요한 건, “누가, 어떤 의도로, 누구에게 피해를 줬는가”를 정확히 가르는 구성요건의 명확화입니다.
현재 찬성 측이 요구하는 ‘강력한 처벌’은 너무 모호해서,
대학생이 만든 정치 패러디도 감옥 갈 수 있습니다.

찬성 2번:
정말로요? 그럼 묻겠습니다.
딥페이크 성착취물 제작자는 지금도 감옥에 가고 있나요?
아닙니다. 대부분 ‘정보통신망법 위반’으로 과태료 몇십만 원만 물고 끝납니다.
반면 아동 포르노 제작자는 무기징역까지 갑니다.
왜 딥페이크는 아동 성착취물보다 ‘덜 심각한 범죄’입니까?
피해자가 살아 있다는 이유로, 그 고통을 덜 중하게 보는 건 아니죠?
이게 바로 법의 이중 잣대입니다.
우리가 요구하는 건 ‘모든 딥페이크 금지’가 아니라,
악의적 조작에 대해 명확한 형사처벌 조항 신설입니다.

반대 2번:
그렇다면 또 묻겠습니다.
캘리포니아주는 이미 선거 관련 딥페이크에 대해 형사처벌을 도입했지만,
2024년 대선 때도 조작 영상이 수십 건 나왔습니다.
왜일까요? 범죄자는 법보다 익명성에 더 의존합니다.
오히려 처벌이 강화되면,
제작자들은 더 교묘하게 해외 서버와 암호화폐를 이용할 뿐입니다.
그 사이 피해자는 플랫폼에 삭제 요청 넣고 14일을 기다립니다.
‘강력한 처벌’은 피해자에게 아무 도움도 주지 못하는 상징적 제스처일 뿐입니다.
진짜 필요한 건 24시간 내 자동 검출·차단 시스템입니다.

찬성 3번:
자동 검출 시스템? 그거 누가 만들고, 누가 운영하나요?
지금도 유튜브나 틱톡은 “AI로 검출 중”이라지만,
딥페이크 음란물은 수개월째 방치됩니다.
왜냐하면 플랫폼에 법적 책임이 없기 때문입니다!
EU는 이미 ‘디지털 서비스법’으로 플랫폼에 딥페이크 콘텐츠 표시 의무 + 신속 삭제 책임을 부과했고,
위반 시 매출의 6% 과징금을 물립니다.
그 결과, 유럽 내 딥페이크 유포는 60% 감소했습니다.
책임 없는 자율 규제는 실패했습니다.
법이 플랫폼의 손을 움직이게 해야 합니다.

반대 3번:
하지만 EU도 ‘형사처벌’보다는 ‘행정적 책임’을 선택했잖습니까?
그건 형사처벌이 비효율적이라는 증거입니다.
더 큰 문제는, 찬성 측이 말하는 ‘악의적 조작’을 어떻게 증명하나요?
딥페이크 하나를 두고, 제작자의 ‘의도’를 수사하려면
몇 달이 걸립니다. 그동안 피해자는 계속 고통받죠.
오히려 민사적 구제 + 플랫폼 책임 강화 + 교육
더 빠르고 실질적인 보호를 제공합니다.
형사처벌은 마지막 수단이어야지, 첫 번째 해법이 돼선 안 됩니다.

찬성 4번:
마지막 수단이라면, 왜 지금까지 아무것도 안 했을까요?
이미 5년 전부터 딥페이크 피해가 보고됐고,
국회에 관련 법안이 12건이나 발의됐지만,
모두 “표현의 자유 침해 우려”라는 이유로 묵살됐습니다.
그 결과, 오늘도 누군가는 자신의 얼굴이 붙은 음란물을 발견하고
자살을 결심합니다.
법은 완벽할 필요 없고, 늦었지만 시작해야 합니다.
강력한 처벌은 완벽한 해결책이 아닐지 몰라도,
‘이건 용납되지 않는다’는 사회적 경고로서 절대적입니다.
우리는 더 이상 피해자를 기다리게 해선 안 됩니다.

반대 4번:
그 경고가 오히려 선의의 연구자와 창작자를 위축시킨다면 어떡하죠?
한국의 한 AI 스타트업은 장애인을 위한 음성 합성 기술 개발 중
“딥페이크 관련 법 위반 가능성” 때문에 투자를 철회당했습니다.
이게 우리가 원하는 미래입니까?
두려움으로 기술을 묶는 대신,
투명한 라벨링, 사용자 동의 의무, 피해 구제 절차—
이 세 가지를 법제화하는 게 진짜 해법입니다.
형사처벌은 단순해 보이지만,
실제로는 복잡한 문제를 단선적으로 바라보는 위험한 유혹입니다.
우리는 지혜로 규제하고, 자유로 혁신해야 합니다.


최종 발언

찬성 측 최종 발언

심사위원님, 여러분.
오늘 우리는 단지 ‘기술’에 대해 토론한 것이 아닙니다.
‘사람’에 대해 토론했습니다.

그 사람들은 이름 없는 피해자들이 아닙니다.
대학생, 회사원, 어머니, 딸입니다.
그들의 얼굴과 목소리가 아무런 동의 없이 성적 대상화되고,
“이건 그냥 AI 장난이야”라는 말 한마디로 모든 고통이 무시되는 현실—
이것이 우리가 사는 세상입니다.

반대 측은 “기술은 중립적”이라 했습니다.
하지만 기술이 중립이라면, 왜 98.7%의 딥페이크 콘텐츠가 여성과 소수자를 대상으로 한 성착취물입니까?
이건 중립이 아니라 선택된 폭력입니다.
그리고 그 폭력을 막기 위한 법은, 결코 표현의 자유를 억압하는 것이 아닙니다.
오히려 진정한 자유를 보장하기 위한 방패입니다.

반대 측이 제시한 미디어 리터러시, 검출 기술, 플랫폼 자율 규제—
이 모든 것은 중요합니다.
하지만 방화벽이 있어도, 방화범에게 아무런 처벌이 없다면 누가 믿겠습니까?
법은 예방의 시작입니다.
“이 행위는 우리 사회가 용납하지 않는다”는 명확한 도덕적 경계선을 긋는 것입니다.

EU는 이미 고의적 딥페이크 조작에 대해 최대 7년의 징역형을 규정했습니다.
캘리포니아주는 선거 개입용 딥페이크를 형사범죄로 삼았습니다.
이들이 두려워한 건 기술이 아니라, 기술이 초래할 수 있는 민주주의의 붕괴였습니다.

우리가 지금 선택해야 할 것은 간단합니다.
피해자의 눈물을 외면할 것인가,
아니면 법이라는 마지막 보루를 세울 것인가.

꿈을 지키는 방법은 꿈을 숨기는 게 아닙니다.
악의를 향해 단호하게 ‘안 된다’고 말하는 용기입니다.
그래서 우리는 확신합니다.
딥페이크의 악용을 막기 위해,
강력한 법적 처벌은 선택이 아니라 필수입니다.


반대 측 최종 발언

심사위원님, 존경하는 여러분.
찬성 측의 열정과 정의감에는 깊이 공감합니다.
하지만 공감은 좋은 정책을 만드는 유일한 기준이 될 수 없습니다.

우리가 오늘 논의해야 할 진짜 질문은 이것입니다:
“어떻게 하면 피해를 줄이면서도, 동시에 미래를 열어둘 것인가?”

찬성 측은 “99%가 악용된다”고 했습니다.
하지만 이 통계는 주로 포르노그래피 플랫폼에서 나온 것입니다.
그렇다면 우리가 해야 할 일은 그 플랫폼을 차단하고, 수사를 강화하는 것이지,
AI로 독립운동가를 재현하는 교사나, 실어증 환자를 위해 목소리를 복원하는 연구자를
잠재적 범죄자로 몰아가는 것이 아닙니다.

형사처벌은 듣기엔 강력해 보입니다.
하지만 현실은 다릅니다.
딥페이크는 오픈소스로 누구나 만들 수 있고,
해외 서버에서 유포되면 우리 법은 손도 못 댑니다.
오히려 모호한 법 조항 아래에서,
대학생의 패러디 영상조차 ‘명예훼손’으로 기소될 수 있습니다.
이게 바로 표현의 자유가 얼어붙는 순간입니다.

우리가 배워야 할 교훈은 인쇄술의 역사에서 찾을 수 있습니다.
15세기, 인쇄기가 등장했을 때 유럽은 혼란에 빠졌습니다.
허위 정보, 종교적 분열, 음란물이 넘쳐났죠.
하지만 그들은 인쇄기를 금지하지 않았습니다.
대신 책에 저자 이름을 표기하게 했고, 출판 책임을 명확히 했으며, 시민 교육을 확대했습니다.
그 결과, 인쇄술은 계몽주의와 민주주의의 씨앗이 되었습니다.

딥페이크도 마찬가지입니다.
우리에게 필요한 건 두려움이 아니라 지혜,
처벌이 아니라 책임 있는 생태계입니다.

플랫폼에 딥페이크 표시 의무를 주고,
학교에서 미디어 리터러시를 가르치고,
공공기관이 검출 기술을 무료로 제공한다면—
이 모든 것이 형사처벌보다 더 빠르고, 더 넓고, 더 인간적인 해결책입니다.

한국은 기술 강국입니다.
그러나 진정한 강국은 기술을 통제하는 힘이 아니라, 기술과 공존하는 지혜에서 나옵니다.
그래서 우리는 믿습니다.
강력한 법적 처벌이 아니라,
균형 잡힌 규제와 자유로운 혁신이 공존하는 길
한국 사회가 선택해야 할 미래입니다.