설명가능한 인공지능(XAI, eXplainable Artificial Intelligence)은 인공지능 알고리즘의 의사결정에 대한 인과관계를 분석하여 적절한 근거를 찾아 모델의 산출물 결과를 사용자 레벨에서 설명하는 인공지능 기술이다. XAI 모델의 고객은 해당 모델을 운영하여 결과를 고객에게 제공하는 금융기관의 실무자와 인공지능 알고리즘 모델 결과를 사용(활용)하는 금융소비자이다. 금융 산업은 개인 및 기관의 자금을 운용으로 수익을 창출하지만 그 운용에 대한 책임도 동시에 갖고 있다. 점차 지능화된 금융범죄 및 사이버범죄의 발견(탐지)과 반복되는 신용평가 등의 업무에 인공지능 알고리즘이 적용되고 있지만 예상치 못한 알고리즘 취약점에 의한 잘못된 판단으로 손실을 초래할 수 있다. XAI는 금융권 인공지능 알고리즘이 발생한 결과에 대한 근거를 제시함으로써 XAI가 적용된 금융기업은 인공지능에 의한 잘못된 의사결정 가능성을 줄일 것으로 기대하고 있다. 본 연구는 XAI를 도입한 금융기업이 금융소비자의 인공지능 산출물(의사결정결과)에 대한 신뢰도 및 만족도 향상을 위한 XAI 특성요인을 추출하고, 이들 요인이 금융권 혁신성과에 미치는 영향도를 분석하고자 한다. 미국 국가표준기술연구원(NIST, 2020)은 XAI의 주요 원칙으로 산출물에 대해 증거와 이유 제시, 설명가능성 제시, 산출물 생성시스템의 프로세스를 제시해야 한다고 언급하였다. XAI는 충분히 신뢰할만한 산출물을 생성할 것이라는 믿음을 전제하고 운영되어야 한다. 또한 방위고등연구계획국(DARPA)은 XAI의 역량평가요소(역량평가지표)로 사용자 만족도, 설명모델 수준, 업무수행 향상도, 신뢰성 평가, 오류 수정 수준 등을 언급하였다. 본 연구는 DARPA의 XAI 역량평가지표, G20의 인간 중심 인공지능 사회 원칙, 금융위원회의 금융분야 인공지능 가이드라인 등을 참조하여 금융권 XAI 특성으로 투명성, 공정성, 설명가능성, 신뢰성, 결과실증성을 제시하였고, XAI 기술 도입 및 서비스 공급에 따른 금융기관의 혁신성과를 종속변수로 설정하였다. 연구모형을 검증하기 위해 금융권 XAI 도입기업 종사자를 대상으로 온라인 설문조사를 실시하였다. 연구결과, 금융권 XAI 특성(투명성, 설명가능성, 신뢰성, 결과실증성)은 금융권 혁신성과와 유의미한 영향을 미치는 것으로 나타났다.
XAI (eXplainable Artificial Intelligence) is an artificial intelligence technology that analyzes the causal relationship of artificial intelligence decision-making, finds appropriate evidence, and explains decision-making results at the user level. Customers of the XAI model are practitioners of financial institutions that operate the model and provide results to customers, and financial consumers who use the results of the AI algorithm model. The financial industry generates profits by managing individual and institutional funds, but also has responsibility for its management. Although artificial intelligence algorithms are being applied to tasks such as the discovery of financial crimes and cyber-crime that are becoming more intelligent and repetitive credit evaluations, unexpected algorithm vulnerabilities can cause losses due to incorrect judgments. XAI presents the basis for the results of artificial intelligence algorithms in the financial sector, and financial companies to which XAI is applied can reduce the possibility of wrong decision-making by artificial intelligence. This study aims to explore the XAI characteristics and influencing factors in the financial sector that affect the reliability and satisfaction of domestic financial consumers, and examine how these factors affect innovation performance in the financial sector. DARPA mentioned user satisfaction, explanation model level, task performance improvement, reliability evaluation, and error correction level as XAI's competency evaluation factors (competency evaluation index). This study refers to DARPA's XAI competency evaluation index, G20's human-centered artificial intelligence society principles, and the Financial Services Commission's financial sector artificial intelligence guidelines, etc. In addition, the innovation performance of financial institutions according to the introduction of XAI technology and service supply was set as a dependent variable. In order to verify the research model, an online survey was conducted targeting workers in companies introducing XAI in the financial sector. As a result of the study, it was found that the XAI characteristics of the financial sector (transparency, explainability, reliability, and result demonstrability) had a significant effect on innovation performance in the financial sector.
Ⅰ. 서 론
Ⅱ. XAI에 관한 선행연구
Ⅲ. 연구모형과 가설설정
Ⅳ. 연구방법 : 조작적 정의 및 표본 선정
Ⅴ. 가설 검정 및 연구 결과
Ⅵ. 결론 및 시사점
참고문헌