상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
학술저널

인공지능(AI) 시대의 신종 범죄에 대한 형사법적 대응 방향 - 형사책임의 주체 및 범위를 중심으로 -

Criminal law response to new crimes in the era of Artificial Intelligence(AI)- Focusing on the subject and scope of criminal liability -

  • 18
cover.png

생성형 인공지능, 인공지능 에이전트 등 기술의 급속한 발전으로 인해 인공지능을 사용한 새로운 형태의 범죄가 등장하고 있다. 다크웹을 통해 웜GPT, 사기GPT가 거래되는 등 누구나 쉽게 인공지능을 사용하여 범죄를 저지를 수 있게 되었다. 딥페이크 기술이 더 정교해지고 있고, 인공지능을 이용한 개인정보 탈취와 같은 대규모 사이버 공격도 발생하고 있다. 이러한 극도의 위험 사회 속에서 인공지능으로 인한 범죄에 대한 형사책임 귀속의 주체와 범위는 매우 중요한 쟁점이다. 범죄 목적으로 인공지능을 개발하고 공급한 자는 사용자가 저지른 범죄에 대해 공동정범 또는 방조범의 책임을 질 수 있다. 해당 범죄의 인공지능 관여자가 범죄 발생 가능성을 예측하고, 인공지능의 품질, 보안, 위험 관리 등을 제대로 하지 못한 주의의무 위반이 있다면 과실범으로 처벌될 수 있다. 기술 개발 상황에 맞춰 인공지능으로 인한 위험성을 분석하고, 각 분야별 위험 정도에 따라 주의의무 위반의 내용과 허용된 위험 범위를 구체적으로 규범화할 필요가 있다. 한편 인간의 개입 없이 인공지능이 독립적으로 범죄를 저지를 수 있는 위험성도 커지고 있다. 이 경우 인간의 과실이 인정될 여지가 거의 없고, 현 단계의 인공지능은 의식, 자율성을 가지고 있다고 보기 어려워 형사책임을 지는 자가 없게 된다. 형사책임의 공백 문제를 해결하기 위한 방안으로 책임자 지정을 통한 과실범 성립의 확대, 인공지능남용법 도입 등 여러 논의가 진행되고 있다. 과도하게 형사책임을 확장할 것이 아니라 법적 안정성을 확보할 수 있는 형사책임 체계를 구축함으로써 인공지능의 독립적 범죄로 인한 위험을 최소화해야 할 것이다. 향후 10년 내 의식과 인간 수준의 자율성을 갖춘 인공지능의 등장이 예측되고 있다. 이 단계의 인공지능은 처벌 필요성과 정당성이 인정되어 형사책임의 주체가 될 수 있는 가능성이 크다. 인공지능을 둘러싼 형사책임 문제를 다루는 특별형법 제정 등에 관한 사회적 담론을 통해 다가오는 미래에 대한 철저한 대비가 필요하다고 하겠다.

Due to the rapid development of AI, such as generative AI and AI agents, new forms of crime using AI are emerging. Anyone can easily commit crimes using AI, such as trading worms and fraudulent GPTs on the dark web. Deepfake technology is becoming more sophisticated, and large-scale cyberattacks such as theft of personal information using AI are also occurring. In this extremely risky society, the subject and scope of criminal liability for crimes caused by AI are very important issues. A person who develops and supplies AI for criminal purposes may be held liable as a a co-perpetrator or an accessory for crimes committed by the user. If the AI involved in the crime predicted the possibility of the crime occurring and failed to properly manage the quality, security, and risk of AI, and violated the duty of care, they may be punished as a negligent criminal. It is necessary to analyze the risks posed by artificial intelligence in accordance with the state of technological development, and to specifically standardize the content of violations of the duty of care and the range of permitted risks according to the level of risk in each field. Meanwhile, the risk that AI can independently commit crimes without human intervention is also increasing. In this case, there is little room for human negligence to be acknowledged, and it is difficult to view AI at the current stage as having consciousness or autonomy, so no one will be held criminally liable. There are various discussions underway to resolve the issue of the gap in criminal liability, such as expanding the scope of negligent crimes through the designation of a person in charge and introducing an AI abuse act. Rather than excessively expanding criminal liability, we should minimize the risks of independent crimes committed by artificial intelligence by establishing a criminal liability system that can secure legal stability. It is predicted that artificial intelligence with consciousness and human-level autonomy will emerge within the next 10 years. Artificial intelligence at this stage is likely to be subject to criminal liability as punishment is recognized as necessary and justifiable. It is necessary to thoroughly prepare for the coming future through social discourse on the enactment of special criminal laws to address the issue of criminal liability surrounding artificial intelligence.

(0)

(0)

로딩중