상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
학술저널

신뢰의 관점에서 본 인공지능 규제

Artificial Intelligence Regulation from the Perspective of Trust

  • 73
법학논총 제32권 제2호.jpg

인공지능(AI)의 비약적인 발전은 사회 전반에 중대한 영향을 미치며, 기존 법체계로는 포섭하기 어려운 윤리적·법적 쟁점을 야기한다. 특히 인공지능의 자율적 판단은 예측이 어렵고 그 과정이 불투명하다는 점에서 일정 수준의 규제 필요성이 제기된다. 인공지능 기술의 수용과 지속가능성을 위해 인공지능에 대한 신뢰 형성은 윤리적·경제적· 산업적으로 중요한 의미를 갖는다. 신뢰 형성을 위해서는 그 대상을 ‘아는 것’ 또는 ‘알 수 있는 것’ 이 전제되어야 한다. 다만 그 대상을 이해함에 있어 높은 수준의 기술적·과학적 지식이 요구되거나 정보의 비대칭이 발생하는 경우, 공신력 있는 기관의 검증을 통해 신뢰관계가 형성될 수있다. 이외 신뢰형성의 다른 핵심 요소는 신뢰를 침해당했을 때 이에 대한 손해 회복의 용이성이다. 위 전제로부터 인공지능에 대한 설명가능성 등을 포함한 투명성, 사전적합성 평가, 인공지능시스템에 대한 통제·감독 등의 의무가 도출되는 것이다. EU는 세계 최초로 인공지능을 포괄적으로 규율한「EU 인공지능법」제정하여 시행중이다. 인공지능 시스템의 위험 수준에 따른 ‘위험기반 접근 방식(risk-based approach)’ 의 규제체계를 통해 고위험 인공지능에 대해 위험관리 시스템 구축, 데이터셋의 완결성 준수 등의 강화된 의무를 부과하고 있다. 우리나라의「인공지능기본법」은 EU 법제와 일정 부분 유사한 내용을 담고 있으나 신뢰 확보의 관점에서 보완이 요구되는 측면이 존재한다. 예컨대, 동법은 인공지능에 대한 설명의무를 명시하고 있지만 설명의 구체적 수준이나 범위가 명확하지 않으며, 의무 위반에 대한 제재규정 또한 미비하다. 이외 인공지능으로 인한 피해 발생 시 실질적인 권리구제가 가능하도록 징벌적 손해배상제도의 도입, 인공지능 책임 보험제도의 활성화, 입증책임의 완화 내지 전환 등 다양한 제도의 도입이 논의될 필요가 있다.

The rapid advance of artificial intelligence (AI) has significantly impacted all aspects of society. AI has rasied complex ethical and legal issues. These issues cannot be easily addressed under existing legal frameworks. In particular, the autonomous decision-making by AI often unpredictable and opaque — necessitate an appropriate level of regulatory oversight. Establishing public trust in AI is crucial for ensuring its ethical, economic, and social sustainability. Trust presupposes knowledge of, or the ability to know, the subject to be trusted. However, where a high degree of technical expertise is required or an imbalance of information exists, verification by credible public institutions may play a key role in facilitating trust. Another essential element in building trust is the availability of effective remedies in cases of harm. Accordingly, regulatory obligations such as transparency, explainability, ex ante impact assessments, and human oversight are increasingly emphasized. The EU has adopted the world’s first comprehensive regulation on AI, 「Artificial Intelligence Act」, which applies a risk-based approach by imposing stricter requirements on high-risk AI systems. These include risk management systems, transparency, and human oversight. Similarly, Korea's 「Framework Act on the Promotion of AI and Establishment of Trust」 follows a comparable structure but requires further elements for building trust. For example, while the Act includes provisions on the duty to explain AI algorithms, it lacks clarity on the required level of explanation and does not provide specific sanctions for non-compliance. To strengthen legal remedies for AI-related harm, further discussions are needed regarding the introduction of punitive damages, the activation of AI liability insurance schemes, and the lowering or reversal of the burden of proof. These measures can enhance the accountability of AI systems and contribute to building public trust in AI.

Ⅰ. 서론

Ⅱ. 디지털 시대의 신뢰

Ⅲ. 인공지능 기술의 발전과 사회적 신뢰의 형성

Ⅳ. 신뢰 기반의 인공지능 규제체계 모색

Ⅴ. 결론

참고문헌

(0)

(0)

로딩중