사전학습된 파라미터를 활용한 안정적인 GAN 학습 프레임워크
A Stable GAN Training Framework Using Pretrained Parameters
- 적정기술학회
- 적정기술학회지
- Vol.11 No.3
-
2025.12112 - 117 (6 pages)
-
DOI : 10.37675/jat.2025.00696
- 2
본 연구는 적대적 생성 신경망의 배치 사이즈와 에포크의 사전 학습 및 동적 조정을 통해 학습 안정성 향상을 목표로 하는 파라미터 사전학습 기법을 제안한다. 제안된 방법은 본 학습 과정에서 파라미터를 직접 조정하는 기존 접근과 달리, 사전학습 단계를 통해 수렴 속도를 개선하고 효율적인 데이터 생성을 가능하게 한다. 실험 결과, 제안 기법은 랜덤 서치 대비 생성자와 판별자의 평균 손실 함수 수치를 각각 약 5% 이상 낮추며 성능 향상을 보였다. 이러한 결과는 생성 모델 기반의 데이터 증강 및 안정적 학습 기법이 의료분야의 이미지 보정, 환경 데이터 복원, 저 자원 지역의 기술 지원 등 적정기술 분야에서 활용될 수 있음을 시사한다. 따라서 인공지능 기반 데이터 생성 기술과 적정기술의 융합 가능성을 제시하며, 사회적 가치 창출을 위한 학문적·기술적 연계성을 제공한다.
This study proposes a parameter pre-training method that enhances the stability of Generative Adversarial Networks (GANs) through the pre-adjustment and dynamic control of batch size and epochs. Unlike conventional approaches in which parameters are tuned during the main training phase, the proposed method first conducts pre-training, thereby improving convergence and enabling more efficient data generation. Experimental results demonstrate that, compared to random search, the proposed approach reduces the average loss values of the generator and discriminator by more than 5%, achieving generator and discriminator losses of 39.4% and 38.2%, respectively. These findings indicate that stable data generation through GAN pre-training can be effectively applied to diverse fields of appropriate technology, including medical image enhancement, environmental data reconstruction, and technical support in resource-limited regions. Accordingly, this research not only contributes to advancing the stability of deep generative models but also highlights the potential integration of artificial intelligence with appropriate technology for creating social value.
서론
이론적 배경
연구 방법
실험
결론
References
(0)
(0)