본고는 다중 자동평가지표(Multi-layered AEMs)를 활용한 번역 자동평가 모델의 구축과응용에 대한 실제 개발과정을 담고 있다. 인공지능 모델을 활용한 자동평가지표는 기계번역 시스템의 성능을 신속하고 객관적으로 평가할 수 있는 도구로, 인간 평가보다 효율적이며 일관된 결과를제공한다. 형태, 통사, 의미의 다양한 측면을 평가할 수 있는 지표들을 통합하여포괄적이고 신뢰성 있는 번역 평가 모델을 개발하였다. 이를 위해‘AEM-L2’, ‘AEM-S1’, ‘AEM-M1’ 지표를 활용하여 번역 품질을 다각적으로 평가하고 개선할 수 있는 모델을 설계하였다. 또한, 번역 자동평가모델프로그램 개발 사례를 통해 실제 구현 가능성을 탐구하였으며, 번역학습자와 전문가에게 유용한 피드백을 제공하였다. 더 나아가 통역 평가에서도 STT(Speech to Text)와 TTS(Text to Speech) 기술을 도입하여 통역의 정확성과 자연스러움을 평가하는 방법을 제안하였다. 이러한 모델은번역 품질을 향상시키는 데 중요한 도구로 작용할 수 있으며, 자동평가와인간 평가의 통합을 통해 더욱 정밀한 평가를 가능하게 한다. 향후연구에서는 기존 지표의 보완뿐 아니라 새로운 지표의 도입을 통해 평가의 포괄성을 확대할 필요가 있다. 앞으로는 더 다양한 자동평가지표를 통합하고, 화용적 측면을 평가할 수 있는 지표 개발이 필요하다. 연구의 한계로는구체적인 자동평가지표의 이름을 공개하지 않은 점과 화용적 평가 지표의 부재가 있다. 본 연구는 번역 시스템 성능 향상과 번역 교육의 질을 높이는 데 기여할 수 있을 것이다.
Using Multi-layered Automatic Evaluation Metrics (AEMs) like AEM-L2, AEM-S1, and AEM-M1, this study develops a model to evaluate translation quality across form, syntax, and semantics. Its implementation offers valuable feedback for learners and professionals. It also suggests integrating Speech-to-Text and Text-to-Speech technologies to assess interpretation accuracy and naturalness. Future research will focus on more diverse, pragmatic evaluation metrics. (Hankuk University of Foreign Studies)
1. 서론
2. 자동평가지표와 자동평가 모델의 검토
3. 번역 자동평가 모델의 구축
4. 다중 자동평가지표 모델화와 적용
5. 결론
참고문헌