상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
한국지적학회지 제38권 제2호.jpg
KCI등재 학술저널

소나무 재선충 탐지를 위한 U-NET모델과 Mask R-CNN모델의 정사영상 비교분석

Orthophoto Imagery Comparison Analysis of U-NET Model and Mask R-CNN Model for Pine Wilt Disease Detection

DOI : 10.22988/ksc.2022.38.2.005
  • 29

본 연구는 소나무재선충 탐지를 위해 딥러닝 모델인 U-NET 모델과 Mask R-CNN 모델을 이용하여 소나무 재선충 피해지역을 분석한 후 탐지능력을 비교해 보았다. 이를 위해 먼저 소나무재선충 피해대상지를 선정하고 드론 촬영 후 정사영상을 획득하였다. 딥러닝을 위한 학습데이터로는 시계열별 2,123개의 소나무재선충 정사영상 자료를 사용하였다. 검증을 위한 참값자료는 연구대상지의 고사목 제거 위치데이터를 사용하였다. 분석 결과 U-NET 모델은 재현율 96.6% 정밀도 80.2%를 얻었으며, Mask R-CNN 모델은 재현율 86.4% 정밀도 75.0%를 얻었다. 이것은 영상의 해상도 차이, 블러닝과 비네팅 현상, 수목 종류, 계절에 따른 단풍과 잎사귀의 갈변 등으로 인한 것이며, 각 지역별 수목의 특징과 산림환경에 적합한 다양한 학습데이터를 학습시킨다면 딥러닝의 탐지능력은 향상될 것이라 판단된다.

This study compared the detection capabilities of the two deep learning models (U-NET model and the Mask R-CNN model) in Pine wilt disease damaged area through image analysis on the basis of orthophoto imagery. To this end, we obtained the 2,123 time-series imageries of damaged pine trees by Pine wilt disease for training data. The location data of cleared pine trees in the study site was used as the reference data to verify models. As a result of the analysis, the U-NET model obtained a recall rate of 96.6% and an accuracy of 80.2%, and the Mask R-CNN model obtained a recall rate of 86.4% and an accuracy of 75.0%. This is due to differences in image resolution, browning and vignette phenomena, tree types, seasonal autumn leaves and browning of leaves, etc., and learning various learning data suitable for the characteristics of trees and forest environment in each region. Then, it is judged that the detection ability of deep learning is improved.

1. 서 론

2. 딥러닝 모델

3. 정사영상 제작 및 데이터 구축

4. 딥러닝 분석

5. 결 론

로딩중