상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
원광법학 제39권 제2호.jpg
KCI등재 학술저널

형사사법에서의 인공지능 예측프로그램 활용 제언

인종적 편향 가능성 회피를 중심으로

최근 국제적으로 형사사법 영역에 범죄예측 프로그램이 유입되어 활용되고 있다. 대표적인 예로 미국 몇몇 주에서 사용하고 있는 재범 예측 프로그램인 COMPAS(“Correctional Offender Management Profiling for Alternative Sanctions”)를 눈여겨볼 필요가 있다. COMPAS는 미국에서 가장 널리 활용되는 계리적 위험 평가 도구(actuarial risk assessment instruments; ARAIs)이다. 미국 회사 Northpointe는 범죄자들의 전과기록, 가족관계, 교육 이력, 약물남용, 등의 자료를 분석하여 재범 가능성을 예측하는 인공지능 알고리즘을 개발하였고, 해당 알고리즘의 결과로 형사피고인의 재범 가능성을 예측하여 판사에게 양형 자료를 제공한다. 하지만 이러한 알고리즘의 결과가 피고인을 공정하게 다루지 않음으로써 그들의 기본권을 침해한다는 주장이 거듭 제기되면서, 해당 알고리즘의 결과가 어떻게 절차화 되었는지, 또한 특정 의사결정을 공정하다고 판단함에 있어 어떤 요인이 얼마만큼의 비중으로 계산되었는지, 등에 대한 근본적인 의문점들을 불러일으킨다. 인공지능 시대에서 ‘인공지능’은 기술개발과 활용, 운용시스템 모두를 아우르는 개념이며, 사법 체계에서 해당 시스템의 활용과 관련한 규범적 판단 및 정책설계가 필요할 것이다. 더 나아가, 인공지능 활용의 개별 위험방지를 위한 윤리적 지침 및 특정 침해의 실질과 형태에 따라 형법적 제재를 포함한 법적 통제안이 구축되어야 할 것이다. 범죄예측에 기반하여 가까운 미래에 과학적 증거와 증명력, 사법 의사결정, 그리고 수사 영역에서 새롭게 당면할 잠재적 쟁점들 중에서도, 본 연구에서는 범죄예측 관련 기술에 기반한 알고리즘의 편향성과 인종차별에 대해 구체적으로 논의할 예정이다. 본고는 형사사법에서의 범죄예측 알고리즘 활용에 있어 제기되어질 수 있는 잠재적 차별의 문제에 초점을 맞추어 비교법적 검토를 통하여 인공지능 알고리즘과 특정 집단에 대한 차별 및 불평등성에 대해 알아보고자 한다. 범죄예측 알고리즘과 관련한 기존 연구가 사법 체계 내에서의 공정성, 객관성, 등에 초점을 맞추어 진행되어왔다면, 필자는 이러한 인공지능 프로그램의 활용 및 편향성 문제에 따른 특정 집단에 대한 사회경제적, 인종적 차별을 분석해보고자 한다. 서로 다양한 문화를 가진 사회 구성원들이 각자의 문화 정체성을 유지하며 살아가는 소위 “샐러드 볼” 사회의 미국과 동일시 할 수는 없지만, 최근 국내로의 이민, 그리고 국제결혼이 급증함에 따라 우리나라도 다문화 사회에 진입하였고 형사사법에서의 알고리즘 활용과 관련하여 사회경제적, 인종적 차별에 대한 선제적 논의의 필요성을 강조하고자 한다. 또한 국내 형사절차로의 도입은 다양한 국가의 선례 및 형사 정책들과의 비교분석 및 추가 검토을 통하여 도입 여부와 관련하여 보다 신중한 결정이 요구될 것이다.

In recent period, crime prediction programs have been newly introduced and utilized internationally in the field of criminal justice. COMPAS (“Corrective Offender Management Profiling for Alternative Sanctions”), as a representative example, is a recidivism prediction program used in several States in the United States. COMPAS is the most widely used risk assessment tools in the United States. The U.S. company Northpointe has developed an artificial intelligence algorithm that predicts the possibility of recidivism by analyzing the accumulated data such as criminal records, family relationships, educational history, drug abuse, etc. However, as it has been controversially argued that the results of these algorithms violate the defendants' constitutional rights, fundamental questions arise on how the results of the algorithm are produced, and what factors are calculated in judging a specific decision. In the era of A.I., ‘artificial intelligence’ is a concept that encompasses both technology development, utilization, and operation systems, normative judgment and policy design related to the use of the system in the judicial system. Furthermore, ethical guidelines for preventing individual risks in the use of artificial intelligence and other legal restraints, including criminal sanctions, should be established. Based on the crime prediction, this study will discuss the bias and racism of algorithms based on crime prediction technologies. This paper further aims to scrutinize the crime prediction and artificial intelligence algorithms in relation to the racial discrimination and social inequality against specific groups in criminal justice. Though not as much as in the U.S., often referred to as a ‘salad bowl’ society, South Korea has also entered a multicultural society due to recent surge in immigration, labor market, and international marriage. Lastly, the author emphasizes the importance of further research on the utilization of crime prediction tool in South Korea, as it requires careful deliberation and thorough comparative legal research prior the adoption of the new technology in the criminal justice system.

Ⅰ. 형사사법에서의 재범 예측 – COMPAS 프로그램을 중심으로

Ⅱ. 한국 형사사법 내에서의 범죄예측 인공지능

Ⅲ. 미국 형사사법 내에서의 재범 예측 알고리즘 활용 현황

Ⅳ. COMPAS의 편향성과 특정집단에 대한 차별: 사회경제적 문제 (socio-economic status)와 인종 차별(racial discrimination) 문제

Ⅴ. 제언 – 나아가야 할 방향

로딩중