상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
post.jpg
학술저널

인공지능 규제

정부의 선택과 한계

4차 산업혁명을 관통하는 핵심기술인 인공지능(AI)은 수많은 사회경제적 혜택을 가져다줄 것으로 기대되면서도 그 부작용에 대한 우려 또한 만만치 않다. 이 연구는 인공지능에 대한 신뢰를 구축하기 위한 정부의 선택을 탐색하고 그 한계를 논의하는 것이 목적이다. 구체적으로는 소위 ‘신뢰할 만한 인공지능(trustworthy AI)’을 만들기 위한 유럽연합(EU)과 미국의 접근법을 분석하고 우리 정부에게 주는 정책적 함의를 도출하고자 한다. 회원국 간의 사회경제적 성숙도와 정부역량, 제도적 맥락의 차이를 극복하기 위한 EU의 접근법은 규범적이면서도 중앙 집중적이다. 반면, 기술패권 헤게모니를 유지하려는 미국은 인공지능산업 진흥을 위해 영역별 규제기관에게 재량권을 부여하면서 민간의 자율성을 장려하는 완화된 접근법을 취하고 있다. 이 같은 환경으로 국내에서도 인공지능규제에 대한 본격적인 논의가 요구되고 있는 현실이다. 이 논문에서는 규제방식/형태에 있어 어떠한 선택을 하더라도 위험기반규제, 공동규제 프레임워크, 국제표준과의 동조화 등 세 가지 요소를 포함하는 것을 고려할 필요가 있다고 지적하고, 동시에 이에 대한 정부의 정책적 선택과 한계에 대해 논의하고자 한다.

Artificial intelligence (AI), the key technology in the Fourth Industrial Revolution, is expected to bring numerous socioeconomic benefits, but there are also concerns about its adverse effects. This study aims to explore policy options for building trust in AI and discuss their limitations. Specifically, we analyze the EU and US approaches to creating so-called “trustworthy AI” and draw policy implications for South Korea. The EU's approach to overcoming differences in socioeconomic maturity, government capacity, and institutional context among its member states is both normative and centralized. On the other hand, the United States, which aims to maintain its technological hegemony, has taken a light-touch approach to promoting the AI industry by granting discretionary authority to sectoral regulators while encouraging private sector autonomy. The changing environment calls for a full-scale discussion on AI regulation in Korea. In this paper, we point out that it is essential to consider regulatory arrangements that include at least three elements: risk-based regulation, co-regulatory framework, and harmonization with international standards. We conclude by discussing policy options and limitations.

Ⅰ. 정부의 선택과 한계

Ⅱ. 유럽 연합의 인공지능 규제

Ⅲ. 미국의 인공지능 규제

Ⅳ. 인공지능 규제: 정부의 선택과 접근방식

Ⅴ. 결어

로딩중