본고는 XAI(eXplainable Artificial Intelligence)의 관점에서 문두 다중논항 구조를 가진 중국어 문장의 어순을 해석하는 모델을 탐구하였다. 본고는 SHAP 모델을 사용하여 어떤 언어 요소가 문장의 비문법성을 예측하는데 가장 큰 영향을 미쳤는지를 시각화 방식으로 설명하도록 하였다. XAI의 실험을 통해, XAI 예측 모델의 해석력에 대해 다음과 같은 사실을 확인할 수 있다. 기본적으로 본고에서 채택한 SHAP 모델의 비문에 대한 해석은 인간의 언어학적 분석과 상당 부분 일치한다. 문두 다중논항의 의미역 어순배열의 오류 현상에 대해서, 본고의 SHAP 모델 분석은 다양한 언어 요인을 반영하여 기여도에 기반한 예측을 적절히 제시하였다.
This paper explored a model for interpreting constraints of the word order of the sentence-initial multiple arguments from the perspective of XAI (eXplainable Artificial Intelligence). This paper employed the SHAP model to visually demonstrate which linguistic elements had the greatest influence on predicting the acceptability of the sentences. Through the study, we found the following facts about the explanation of the XAI prediction model. The explanation of acceptability by the SHAP model adopted in this paper is largely consistent with human linguistic analysis. Our SHAP model appropriately predicts which linguistic factors are contributing to the acceptability of the sentences with sentence-initial multiple arguments.
1. 서론
2. 설명 가능한 인공지능(XAI)
3. XAI로서의 SHAP 모델의 개념과 특징
4. SHAP 프레임워크 기반의 중국어 문두 다중논항 어순 해석 모델
5. 어순 해석 결과에 대한 언어학적 분석
6. 결론
(0)
(0)