상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
학술저널

제주 지역 교통 모니터링을 위한 경량 악천후 객체 탐지 모델: Lightweight Traffic Detection

Lightweight Object Detection for Traffic Monitoring in Adverse Weather Using a Case Study in Jeju

  • 4
적정기술학회지 Vol.11 No.3.png

본 연구에서는 최신 백본(Backbone)과 어텐션(Attention) 구조를 결합한 네 가지 객체 탐지(Object Detection) 모델을 제안하고, 악천후 환경에서의 성능을 종합적으로 비교·분석하였다. 안개, 비, 저조도 등 악천후 환경은 영상 품질을 저하시켜 객체의 경계를 흐리게 만들고, 기존 객체 탐지 모델의 정확도를 크게 감소시킨다. 특히 개발도상국이나 예산이 제한된 지역에서는 고가의 LiDAR나 레이더 센서를 활용한 첨단 시스템 도입이 어려워, 기존 CCTV 인프라만으로 악천후 환경에서도 효과적인 객체 탐지가 가능한 경량 기술이 요구된다. 이러한 문제를 해결하기 위해 YOLOv8 및 YOLOv11 기반의 네 가지 경량 객체 탐지 모델을 제안하고 성능을 비교 분석하였다. 첫 번째와 두 번째 모델은 Swin Transformer와 EMA (Efficient Multi-scale Attention) 모듈을 결합하여 전역 문맥 정보를 효과적으로 활용하도록 설계하였으며, 세 번째와 네 번째 모델은 EfficientNet 백본을 적용하여 파라미터(Parameter) 수와 연산량을 대폭 줄이면서도 높은 탐지 정확도를 유지하도록 하였다. 실험은 RTTS(Real-world Task-specific Test Set) (Nguyen, 2021), Fog or Detection 데이터셋(Islam, 2023)과 제주교통정보센터 CCTV 영상(제주특별자치도 교통정보센터, 2025)을 활용하여 진행되었으며, 제안 모델 중 YOLOv11-EfficientNet-EMA가 mAP50-95 기준 57.90%로 가장 우수한 성능을 달성하였다. 그러나 제안 모델은 극심한 폭우나 야간 조명이 전혀 없는 환경에서는 성능 저하가 발생할 수 있으며, 실시간 처리를 위해서는 최소한의 엣지 컴퓨팅(Edge Computing) 장비가 필요하다는 한계가 있다. 제안된 경량 모델은 기존 교통 CCTV 인프라에 소프트웨어 업데이트만으로 적용 가능하여, 제주 지역과 같이 안개가 빈번한 지역의 교통 모니터링 시스템, 실시간 사고 감지, 그리고 향후 자율주행 기반 교통 안전 시스템 구축에 저비용 고효율 솔루션으로 활용될 수 있으며, 특히 고가의 센서 도입이 어려운 농촌 지역이나 개발도상국의 교통 안전 인프라 구축에도 기여할 수 있을 것으로 기대된다.

This study proposes four object detection models that integrate the latest backbones with attention mechanisms and comprehensively compares and analyzes their performance in adverse weather conditions. Adverse environments such as fog, rain, and low light degrade video quality, necessitating lightweight technology for effective object detection using only existing CCTV infrastructure, especially in budget-limited regions. We propose and compare the performance of four lightweight models based on YOLOv8 and YOLOv11. The first two models combine Swin Transformer and the EMA (Efficient Multi-scale Attention) module to leverage global contextual information, while the latter two apply the EfficientNet backbone to substantially reduce complexity and maintain high accuracy. Experiments using the RTTS and Fog or Detection datasets, along with Jeju Traffic CCTV footage, showed that YOLOv11-EfficientNet-EMA achieved the most superior performance, reaching 57.90% based on mAP50-95. However, the models face limitations like performance degradation in extremely heavy rain or completely unlit nighttime conditions, requiring minimal edge computing equipment for real-time processing. The proposed lightweight models can be applied to existing traffic CCTV infrastructure through software updates alone, serving as a low-cost, high-efficiency solution for traffic monitoring in fog-prone areas like Jeju, real-time accident detection, and future autonomous-driving-based traffic safety systems, and are expected to contribute to infrastructure development in rural areas or developing countries where expensive sensor deployment is difficult.

서론

관련 연구

연구 방법

실험 설계

결과 및 고찰

결론

사사

References

(0)

(0)

로딩중