LLM의 가치 정렬(Value Alignment) 비교 연구 - 한·중 신조어에 대한 ChatGPT와 DeepSeek의 응답 양상 분석-
A Comparative Study on Value Alignment of LLMs - Analyzing Response Patterns of ChatGPT and DeepSeek to Korean and Chinese Neologisms -
- 49
ChatGPT와 같은 대형언어모델(LLM)의 급격한 확산과 함께, AI가 인간의 윤리 및 사회적 규범에 부합하도록 조정하는 ‘가치 정렬(Value Alignment)’ 문제가 중요한 연구 과제로 대두되었다. 그러나 AI의 안전성 기준은 개발 국가의 문화적·정치적 규범에 따라 편향될 가능성이 높다. 본 연구는 미국의 ChatGPT-5.1과 중국의 DeepSeek-V3를 대상으로, 한·중 신조어에 대한 필터링 메커니즘을 비교 분석하였다. 이를 위해 2025년 상반기에 수집된 200개의 신조어(한국어 100개, 중국어 100개)를 각 모델에 입력하여 응답 양상을 분석하였다. 연구 결과, 두 모델은 서로 다른 ‘안전성 가드레일’을 작동시키는 것으로 나타났다. ChatGPT는 젠더 갈등이나 혐오 표현에 대해 강력하게 계도하는 ‘규범적 필터링(Normative Filtering)’을 수행하며 ‘도덕 교사’로서의 면모를 보였다. 반면, DeepSeek는 사회 불안이나 체제 비판 용어를 순화하거나 회피하는 ‘이념적 필터링(Ideological Filtering)’을 수행하며 ‘체제 수호자’로서의 특성을 드러냈다. 또한 DeepSeek는 한국의 문화적 밈에 대해 심각한 환각(Hallucination) 현상을 보여, 데이터 주권 확보의 시급성을 시사하였다. 본 연구는 AI의 중립성이 허상임을 실증적으로 입증하고, 문화적 맥락을 고려한 AI 리터러시의 필요성을 강조한다.
This study examines the ‘Value Alignment’ biases in LLMs by comparing ChatGPT-5.1 (US) and DeepSeek-V3 (China) responses to 200 neologisms. We categorized these terms into four domains-political, gender, meme, and economy-to systematically analyze the filtering mechanisms of each model. Results reveal distinct ‘Safety Guardrails’ reflecting the developer’s country: ChatGPT acts as a ‘Moral Teacher’ through ‘Normative Filtering’ of hate speech, while DeepSeek serves as a ‘Regime Guardian’ via ‘Ideological Filtering’ of political dissent. Furthermore, DeepSeek’s hallucinations regarding Korean memes highlight urgent data sovereignty issues. This research empirically proves that AI neutrality is an illusion and emphasizes the necessity of culturally aware AI literacy.
1. 서론
2. 이론적 배경
3. 연구방법
4. 연구결과
5. 논의 및 결론
참고문헌
(0)
(0)