상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
국가지식-학술정보

기계학습 방법에 따른 인공지능 사고 유형 분류와 인공지능 개발자의 고의 및 과실 판단 기준에 관한 연구

A Study on the Classification of AI Accident Types Based on Machine Learning Methods and Legal Criteria for Determining the Intent and Negligence of AI Developers

  • 32
커버이미지 없음

인공지능 기술이 급속히 발전하고 다양한 분야에서 활용됨에 따라, 인공지능으로 인한 사고 발생 시 법적 책임 소재를 명확히 할 필요성이 증가하고 있다. 본 연구는 인공지능 사고 유형을 기계학습 방법에 따라 체계적으로 분류하고, 인공지능 개발자의 고의 및 과실 책임 판단 기준을 제시하였다.이를 위해 우선, 기계학습의 세 가지 유형인 지도학습, 비지도학습, 강화학습을 기준으로 인공지능 사고를 네 가지 유형[(1) 잘못된 지도 및 비지도학습으로 인해 의도한 목적 달성에 실패하여 발생한 사고, (2) 지도 및 비지도학습을 통해 의도한 목적은 달성하였으나 그 과정에서 발생한 사고, (3) 잘못된 강화학습으로 인해 의도한 목적 달성에 실패하여 발생한 사고, (4) 강화학습을 통해 의도한 목적은 달성하였으나 그 과정에서 발생한 사고]으로 분류했다.본 연구는 인공지능 개발자의 고의 및 과실 책임 판단의 핵심 기준으로 ‘신뢰성 검사’와 ‘안전성 검사’라는 두 가지 검사를 제안했다. 신뢰성 검사는 인공지능이 설계된 목적에 부합하는 성능을 갖추었는지 여부를 평가하는 성능 중심의 검사로서 첫 번째와 세 번째 사고 유형에 필수적이다. 반면, 안전성 검사는 인공지능의 작동 과정 또는 산출물에서 잠재적으로 사고가 발생할 가능성을 평가하는 안전 중심의 검사로서 두 번째와 네 번째 사고 유형에 필수적이다. 인공지능 개발자가 검사 과정에서 사고 발생 가능성을 인지했음에도 적절한 조치를 취하지 않은 경우에는 고의책임이 성립될 수 있으며, 설령 사고 가능성을 인지하지 못했다 하더라도 당시 과학·기술 수준에 비추어 충분한 검사를 수행하지 않았다면 과실책임이 인정될 수 있다.이러한 신뢰성 및 안전성 검사를 바탕으로 인공지능 개발자의 고의 및 과실 책임 여부를 명확히 판단하기 위해서는 검사 기준과 절차의 법제화가 필요하며, 인증 제도 도입, 검사 결과 공시 의무화, 검사 관련 자료 보존 의무화 등과 같은 제도적 장치가 요구된다. 본 연구에서 제시한 사고 유형 분류와 고의 및 과실 판단 기준은 향후 인공지능 개발자의 책임 판단과 관련 법제 마련을 위한 중요한 기초자료로 활용될 수 있을 것으로 기대된다.

With the rapid advancement of artificial intelligence (AI) technologies and their expanding applications across diverse domains, the need to clearly define liability for AI-related incidents has become increasingly evident. This study systematically classifies AI-related accidents based on machine learning methods and proposes clear criteria for assessing the intent and negligence of AI developers. AI accidents are categorized into four types based on three primary machine learning methods—supervised learning, unsupervised learning, and reinforcement learning: (1) accidents resulting from flawed supervised or unsupervised learning failing to achieve intended objectives; (2) accidents occurring during the achievement of intended objectives via supervised or unsupervised learning; (3) accidents stemming from flawed reinforcement learning failing to meet intended objectives; and (4) accidents arising during the achievement of intended objectives through reinforcement learning. This study introduces two evaluation frameworks—reliability test and safety test—as key criteria for determining developer liability. Reliability test, which assesses whether an AI system meets its designed objectives, is critical for the first and third accident types. Safety test, which evaluates the potential harm from system’s operations or outputs, is essential for the second and fourth types. Intent may be established if a developer, aware of risks identified during testing, failed to implement adequate preventive measures. Negligence may be recognized if the testing conducted was insufficient relative to prevailing scientific and technological standards, even absent awareness of specific risks. To enhance the rigor and transparency of liability assessments, this study proposes the institutionalization of testing standards and procedures, such as third-party certification systems, mandatory test result disclosures, and requirements forretaining test documentation. The classification framework for AI-related accidents and liability criteria proposed in this study are expected to serve as a foundational reference for determining developer liability and shaping future legal and regulatory frameworks.

Ⅰ. 들어가는 글

Ⅱ. 인공지능 학습 방법 검토

1. 지도학습(supervised learning) 및

비지도학습(unsupervised learning)

가. 일반적 설명

나. 일반화 오류 문제 : 과적합(overfitting)

문제 및 외삽(extrapolation 또는 out-of

distribution) 문제

2. 강화학습(reinforcement learning)

가. 일반적 설명

나. 탐험 및 활용 균형(explorationexploitation trade-off) 문제

3. 학습 방법에 따른 차이점

Ⅲ. 인공지능 학습 방법에 따른 사고 유형 검토

1. 지도 및 비지도학습으로 인한 사고 분류

가. 사고 유형 1 : 잘못된 학습으로 인해 의도한 목적을 달성할 수 없어 발생한 사고

나. 사고 유형 2 : 의도한 목적을 달성할 수

있도록 학습되었으나 발생한 사고

2. 강화학습으로 인한 사고 분류

가. 사고 유형 3 : 잘못된 학습으로 인해 의도한

목적을 달성할 수 없어 발생한 사고

나. 사고 유형 4 : 의도한 목적을 달성할 수

있도록 학습되었으나 발생한 사

Ⅳ. 각 사고유형별 고의 및 과실 판단 기준 검토

1. 잘못된 학습으로 인해 의도한 목적을 달성할 수

없어 발생한 사고(유형 1, 3)

가. 신뢰성 검사와 사고 발생 인식 가능성

나. 고의 판단 기준 검토

다. 과실 판단 기준 검토

2. 의도한 목적을 달성할 수 있도록 학습되었으나

발생한 사고(유형 2, 4)

가. 신뢰성 검사와 사고 발생 인식 가능성

나. 안전성 검사 필요성 검토

다. 고의 판단 기준 검토

(1) 지도 및 비지도학습 관련 사고(유형 2)

(2) 강화학습 관련 사고(유형 4)

라. 과실 판단 기준 검토

Ⅴ. 제언

Ⅵ. 나가는 글

※ 참고문헌

(0)

(0)

로딩중