상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
법학논총 제30권 제1호.jpg
KCI등재 학술저널

인공지능의 권리능력 인정여부에 관한 소고

인공지능과 같이 파급효과가 큰 신기술에 대한 법적 논의와 그에 관한 법제정비는기술이 일정 시점에 도달하기 전에 선행되어야 할 필요가 있다. 특히 인공지능의 권리능력 인정여부는 많은 변화를 초래할 수 있다는 점에서 사전적 논의와 정리가 필요한쟁점에 해당한다. 현재 인공지능의 법적 지위는 권리의 객체인 물건이다. 따라서 인공지능의 권리능력은 인정되지 않는다. 물론 인공지능에게도 권리능력을 인정할 수 있는 제도적 가능성은 있다. 하지만 그에 부합하는 사회적 필요가 확인되지 않는다. 현 시점에서 인공지능의 법적 지위에 변경이 필요할 정도로 법적 규율에 현저한 문제나 한계를 확인하기어렵다. 또한 인공지능 기술의 수준과 활용의 정도를 고려할 때, 인공지능의 법적 지위 변경에 대한 충분한 사회적 필요와 공감대를 확인하기도 어렵다. 따라서 현 시점에서 인공지능의 법적 지위를 변경하여 권리능력을 인정할 필요도 없다. 다만 인공지능관련 기술 발전, 인공지능 활용 증가, 인공지능에 대한 인식 개선의 순환과 인공지능의 자율성 확대로 인해 향후 인공지능의 법적 지위 변경에 대한 수요와 필요가 충족될수 있는 가능성이 있다. 또한 충분한 자율성을 갖게 된 인공지능이 초래할 수 있는 변화의 정도를 고려할 때 기본적인 방향과 틀에 대해서도 미리 정해두는 것이 합리적인대처이다. 법은 인간을 중심으로 한 것이며, 향후로도 인간을 중심으로 한 것일 가능성이 높다. 인공지능 기술이 사회적으로 승인될 수 있는 이유 역시 인공지능이 인간에게 도움이 될 수 있기 때문이다. 하지만 기술 발전과 인공지능의 자율성 확대 나아가 자의식형성은 인공지능이 인간보다 우월한 지위에 설 수 있는 가능성을 유발한다. 따라서 인간 중심의 법이라는 전제를 유지해야 한다면, 법으로 인공지능이 인간보다 우월한 지위에 설 수 있는 가능성을 제도적으로 제한하고 관리가능성을 유지할 수 있도록 조치할 필요가 있다. 이에 기술 발전으로 인공지능의 자율성이 충분히 확보된다하더라도인공지능은 여전히 물건으로 취급하는 것이 합리적이다. 제한적으로라도 권리능력을인정한다면, 그에 따른 예외가 발생할 수 있고, 예측할 수 없는 문제가 발생할 수 있기 때문이다. 다만 그럼에도 불구하고 사회적 필요가 충족되는 상황이 벌어질 여지도있다. 그러한 경우에는 해당 유형 내지 대상 인공지능의 권리능력을 인정하는 형태로법적 지위를 변경하는 것보다는 범위를 한정하여 물건과 달리 취급할 수 있는 근거를마련하는 것이 합리적인 접근이라 생각한다.

Legal discussions and legislative reform on new technologies with large ripple effects, such as AI, need to be preceded before the technology reaches a certain point. In particular, whether to recognize AI as a legal personhood is an issue that requires preliminary discussion and arrangement in that it can cause many changes. Currently, the legal status of AI is a thing. Therefore, the legal personhood of AI is not recognized. Of course, there is an institutional possibility to recognize the legal personhood of AI. However, the corresponding social needs are not identified. At this point, it is difficult to identify significant problems or limitations in legal discipline that would necessitate changes to the legal status of AI. In addition, considering the level of AI technology and the extent of its utilization, it is difficult to ascertain a sufficient social need and consensus on changing the legal status of AI. Therefore, there is no need to change the legal status of AI at this point. However, there is a possibility that the demand and need for changes in the legal status of AI can be met in the future due to the development of AI-related technology, the increase in the use of AI, the cycle of improved awareness of AI, and the expansion of AI's autonomy. In addition, considering the degree of change that AI with sufficient autonomy can bring about, it is a reasonable response to set the basic direction and framework in advance. The law is human-centered, and there is a high possibility that it will continue to be human-centered. The reason AI technology can be socially accepted is also because AI can help humans. However, the development of technology and the expansion of AI's autonomy and the formation of self-consciousness induce the possibility that AI can stand in a position superior to humans. Therefore, if the premise of human-centered law is to be maintained, it is necessary to institutionally limit the possibility that AI can stand in a position superior to humans through law and take measures so that humans can manage AI. Therefore, even if the autonomy of AI is sufficiently secured through technological development, it is still reasonable to treat AI as a thing. This is because if exceptions are allowed, unpredictable problems may occur. However, there is still room for situations in which social needs are met. In such a case, it is a reasonable approach to prepare the grounds for treating AI differently from things rather than changing the legal status of the AI.

Ⅰ. 서설

Ⅱ. 인공지능의 법적 지위와 현실의 변화 그리고 지향점

Ⅲ. 인공지능의 권리능력 인정여부에 관한 검토

Ⅳ. 결어

로딩중