상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
학술저널

BERT 자연어 처리 모델 기반 방사선치료학 학습자를 위한 질의응답 시스템 연구

Research of BERT-Based Q & A System for Radiation Therapy Education

  • 81
방사선기술과학 제48권 제2호.jpg

본 연구는 방사선치료학 학습자를 위한 질의응답 시스템 개발을 목표로 BERT 기반 자연어 처리(NLP) 모델인 KoBERT, TinyBERT, bert-base-multilingual-cased 모델을 비교 분석하였다. 각 모델의 하이퍼파라미터(Hyperparameter) 최적화를 통해 최적 성능을 도출하였으며, 방사선치료학 관련 질문과 답변을 포함한 한국어 텍스트 데이터 세트를 사용하였다. 평가 결과, bert-base-multilingual-cased 모델은 학습 손실률(loss) 0.9078로써 KoBERT (1.4354), TinyBERT (1.5795)보다 우수한 성능을 보 였다. 본 연구는 정확도, F1 점수, 정밀도, 재현율을 주요 지표로 사용하여 모델 성능을 평가하였다. bert- base-multilingual-cased 모델은 다국어 지원이 필요한 방사선치료학 분야에서 높은 성능을 보였으며, KoBERT와 TinyBERT 모델은 각기 다른 특성에 따라 한국어 특화 환경과 효율성 측면에서 장점이 있다. 본 연구는 방사선치료학 교육 및 실무 환경에서 인공지능 기반 질의 응답 시스템 활용 가능성을 확인하였다.

This study aims to develop a question-answering system for radiotherapy science learner by comparing analyzing BERT (Bidirectional Encoder Representations from Transformers)-based natural language processing (NLP) models, including KoBERT, TinyBERT, bert-base-multilingual-cased. The optimal performance of each model was derived through hyper- parameter optimization, using a Korean text dataset consisting of radiotherapy-related questions and answers. The evaluation results showed that the bert-based-multilingual-cased model output formed KoBERT (1.4354) and TinyBERT (1.5795) with a lower loss of 0.9078. The models were evaluated using key metrics such as accuracy, F1 score, precision, and recall. The bert-base-multilingual-cased model demonstrated high performance in the radiotherapy field, which requires multilingual sup- port, while KoBERT and TinyBERT excelled in Korean-specific environments and efficiency, respectively. This study confirmed the potential of an AI-based question-answering system for educational and practical applications in radiotherapy science.

Ⅰ. 서 론

Ⅱ. 대상 및 방법

Ⅲ. 결 과

Ⅳ. 고 찰

Ⅴ. 결 론

REFERENCES

(0)

(0)

로딩중