상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
刑事政策 第34卷 第2號.jpg
KCI등재 학술저널

형사사법에서의 인공지능 사용에 대한 유럽의회 결의안

‘인공지능에 의한 결정’ 금지에 관하여

인공지능의 객관성을 높이 평가하는 사람들은 형사사법에서도 인공지능이 순기능을 할 수 있다고 평가하고, 그동안 차별적 사법판단의 희생양이었던 유색인종 등사회적 약자들은 인간 판사보다 인공지능의 사법적 판단을 선호한다고 한다. 그러나인공지능이 머신러닝으로 학습하는 데이터들은 과거의 법집행 기록들을 모아놓은것에 불과하다. 즉 과거의 편견과 차별이 그대로 반영된 데이터인 것이다. 이런 데이터로 학습한 인공지능은 공정한 예측 결과를 도출하기 힘들며, 인공지능이 내린 결정을 형사사법에서 그대로 사용하는 것은 기술적·객관적·중립적 과학이라는 탈을쓰고 엄청난 불의를 행하는 것이 될 수도 있다. 2021년 10월의 유럽의회 형사사법 인공지능 결의안은 바로 이 지점에 위치하고있다. 즉, 투명성과 책임성을 탑재한 인공지능이 도입되어 시민의 기본권에 아무런해도 입히지 않는다는 것을 신뢰할 수 있을 때까지 형사재판에서 인공지능이 내린결정을 그대로 사용해서는 안 된다고 못박은 것이다. 또한 유럽의회의 이번 결의안은 기존의 유럽연합 개인정보보호법 체계를 형성하고 있는 GDPR과 법집행지침(LED)이 각각 제22조와 제11조에서 보장하고 있는‘자동화된 처리에만 의존하는결정의 대상이 되지 않을 권리’를 형사사법 분야에서 다시 한 번 확인하는 특별법적성격을 가지고 있다. 본고는 편견과 차별, 투명성, 책임성이라는 3가지 측면의 선결 과제들이 해결될 때까지는 형사사법에 인공지능이 도출한 결과를 사용하지 말아야 한다는 유럽의회의 결의안과 궤를 같이 한다. 이러한 결론은 편견과 차별로 오염된 데이터를 바탕으로 한 예측 치안(predictive policing) 인공지능이 인간의 존엄성과 무죄 추정에위배되므로 앞으로 제정될 유럽연합 인공지능법의 ‘금지되는 인공지능 관행(Prohibited Artificial Intelligence Practices)’에 추가되어야 한다는 2022년4월의 유럽의회 인공지능법안 수정안의 발표로 더욱 그 타당성이 뒷받침된다. 본고는 최근 발표된 일련의 문서들에 대한 검토를 통해 그동안 주로 가이드라인이나 인공지능 윤리 차원에서 인공지능을 규제했던 유럽연합이 이제는 법률을 통해강력한 규제를 꾀하고 있으며, 특히 현재로서는 형사사법에 인공지능에 의한 결정을도입해서는 안 된다는 결론을 최종적으로 내렸다는 점에 주목한다. 2021년 10월의유럽의회 형사사법 인공지능 결의안은 이러한 최종적 입장을 잘 드러낸, 주목할 만한 문서라 할 것이다.

As artificial intelligence(AI) is used in criminal justice, experts in the field of technology who value the objectivity of AI and people of color who have been victims of discriminatory judicial judgments have shown a preference for judicial decisions of AI over human judges. However, the data that AI learns through machine learning is nothing more than a collection of past law enforcement records. In other words, it is data that reflects the prejudice and discrimination of the past. AI learned from such data is difficult to derive fair prediction results. Therefore, using the output as it is without making any corrections poses a risk of doing great injustice under the guise of technical, objective, and neutral science. The European Parliament's Resolution 2020/2016(INI) of October 2021 is located at this point. It insisted that the decisions made by AI should not be used as it is in criminal matters until it can be trusted that AI with transparency and accountability does not harm the fundamental rights of citizens. Above all, EU citizens have the‘right not to be subject to decisions based solely on automated processing’by GDPR Article 22 and Law Enforcement Directive Article 11. This resolution of the European Parliament has a special legal character reaffirming this right in the field of criminal justice. However, in the long term, it is expected that the number of cases of AI support in the criminal justice system will increase due to lack of budget, human resources and delayed cases. So, what position should we take on the hybrid decision of machines and humans? The European Union is reluctant to follow the past cases that triggered legal and ethical problems with AI by entrusting it to self-regulation by private companies. They seek to protect the fundamental rights of citizens and align with the ideals of criminal justice by strengthening the transparency and accountability of AI through public intervention. The European Parliament resolution 2020/2016(INI) of October 2021 is a noteworthy document that sets out such a goal in the field of criminal justice.

Ⅰ. 시작하며

Ⅱ. 2021년 10월 유럽의회 형사사법 인공지능 결의안

Ⅲ. 결의안이 도출되기까지의 논의

Ⅳ. 형사사법에 인공지능이 사용되기 위한 선결 과제

Ⅴ. 마치며

로딩중