딥페이크(Deepfake)는 인공지능에 기반한 생성기술로서, 실제와 구분하기 어려운 허위 영상·이미지·음성을 제작·유포함으로써 개인의 인격권, 사회적 신뢰, 민주적 공론장을 심각하게 침해하는 첨단 디지털 범죄 유형으로 급부상하고 있다. 본 연구는 딥페이크 범죄를 성적·정치적·비성적 일반 유형으로 체계화하고, 이에 대한 국내외 법제의 규율 현황과 한계를 분석하였다. 국내에서는 「성폭력범죄의 처벌 등에 관한 특례법」 제14조의2와 「공직선거법」 제82조의8이 중심적 규율 축으로 기능하나, 비성적 딥페이크의 악용에 대해서는 여전히 형법과 정보통신망법에 의존하는 간접적 구조를 보이며, 실질적 규율 공백이 존재한다. 또한 사법부의 양형 관행은 범죄의 디지털적 확산성과 피해의 비가역성을 충분히 반영하지 못해, 규제 강화에도 불구하고 억지력이 아직은 부족하다. 해외 입법례 분석 결과, 유럽연합은 인공지능법(AI Act) 및 디지털서비스법(Digital Services Act)를 통해 투명성 의무 및 플랫폼 책임성을 강화하고 있으며, 미국은 주법 중심의 규제와 신속한 피해자 구제 체계를 구축하는 등 다층적 접근을 취하고 있다. 이에 따라 본 연구는 향후 우리나라 법제 개선 방향으로 ‘성적 대상화’ 개념을 중심으로 한 형사 구성요건의 명료화, 디지털 확산성을 반영한 양형기준 재정립, 인공지능 생성물 워터마킹 의무화 등 기술적 투명성 확보, 해외 플랫폼에 대한 책임성 강화, 청소년 대상 예방교육 및 피해자 지원체계 고도화를 제안한다. 이러한 통합적 접근은 딥페이크 범죄의 선제적 예방과 ‘디지털 사회의 공적 신뢰’ 회복을 위한 실효적 법제 설계의 토대를 제공할 것이다.
Deepfake technology, based on artificial intelligence, represents an emerging form of digital crime that produces and disseminates falsified videos, images, and audio virtually indistinguishable from reality, thereby severely infringing upon individual dignity, social trust, and the integrity of democratic discourse. This study categorizes deepfake-related crimes into three primary types—sexual, political, and non-sexual—and conducts an in-depth analysis of the current status and limitations of domestic and international legal regulation. In South Korea, Article 14-2 of the Special Act on the Punishment of Sexual Crimes and Article 82-8 of the Public Official Election Act serve as key regulatory provisions. However, for non-sexual misuse, regulation remains largely dependent on the Criminal Code and the Information and Communications Network Act, revealing substantial gaps in comprehensive legal coverage. Moreover, judicial sentencing practices fail to adequately reflect the digital diffusivity and irreversibility of harm, thereby undermining deterrent effectiveness despite legislative reinforcement. A comparative analysis of foreign legislative practices shows that the European Union strengthens transparency obligations and platform accountability through the AI Act and Digital Services Act (DSA), while the United States adopts a multi-layered approach via state-level regulations and rapid victim relief mechanisms. Building upon these findings, this study proposes the following directions for legislative reform in Korea: clarification of criminal elements centered on the concept of “sexual objectification,” restructuring of sentencing guidelines to account for digital dissemination risks, establishment of technological transparency through mandatory AI watermarking, reinforcement of accountability for foreign platforms, and enhancement of preventive education and victim-support systems for youth. Such an integrated approach aims to provide a foundational framework for preemptive prevention of deepfake crimes and the restoration of public trust in digital information in contemporary society.
I. 서(序)
1. 연구 목적 및 배경
2. 선행연구 분석
II. 딥페이크에 대한 법적 규율 현황 및 한계
1. 국내 딥페이크 규제 법제 현황
2. 현행 규율의 사법적 실효성과 입법적 한계
3. 소결
III. 해외 주요국 입법례 분석 및 법·제도 개선 방안
1. 해외 주요국 딥페이크 규제 동향 분석 및 시사점
2. 디지털 사회 신뢰 보호를 위한 입법 방향 및 개선 제언
3. 소결
VI. 결(結)
※참고문헌
(0)
(0)