서 론
기후변화로 인해 극한산불은 2050년까지 30 % 이상, 2100년까지 50 % 이상 증가할 것으로 예측된다[1].
탄소배출 증가로 인한 지구온난화는 고온건조한 대기를 형성하여 산불확산에 이상적인 조건을 제공한다. 더욱이 강풍과 돌풍, 야간, 짙은 연기 등 악조건 환경은 산불 대응을 어렵게 만들어 국민과 국토에 막대한 피해를 초래하고 있다.
본 연구는 이러한 문제를 해결하기 위해 딥러닝 기반의 자율유도형 산불 대응 시스템인 Guided Fire Extinguishing Device(GFED)를 제안한다. GFED는 공중에서 투하된 후 화점까지 정확히 유도되도록 설계된 시스템으로, 객체탐지, 자율추적, 기계적 제어 기술을 통합하여 산불 대응의 효율성을 극대화하는 것을 목표로 한다.
본 시스템은 컴퓨터 비전에 기반하여 비정형적인 화재와 연기 이미지를 인식하고, You Only Look Once (YOLO)[2]기반 딥러닝 모델로 이를 추론 및 추적한다. 특히, 새롭게 고안된 Nona Filter는 표적의 우선순위를 판별해 가장 중요한 화점을 추적하도록 설계된 알고리즘으로, 이를 기반으로 날개를 제어하여 자율 유도를 수행한다. 이러한 통합적 접근을 통해 GFED는 강풍과 돌풍, 야간, 짙은 연기 등 다양한 악조건 속에서도 신속하고 정밀한 산불 대응을 가능하게 한다.
GFED 시스템 설계
GFED 설계의 주요 절차는 Fig. 2와 같이 카메라 이미지 인식, YOLO 기반 딥러닝 객체탐지, Nona Filter 기반 객체 추적 개발, 그리고 기계적 유도제어 순이다.
2.1 카메라 기반 객체 인식
GFED는 Charge-Coupled Device(CCD) 카메라를 이용해 산불과 연기를 인식한다. CCD 카메라에서 수집된 이미지는 YOLO 기반 객체탐지 모델로 처리되어 화재와 연기를 식별한다. Fig. 3은 본 연구에서 실험에 사용된 화재모델(B급 1단위)로, 가로 길이는 44.7 cm이다.
카메라 해상도와 동작 거리는 식 (1)을 통해 계산된다. 예를 들어, 모델의 너비가 44.7 cm인 경우, YOLO 모델의 훈련에는 최소 5 % 이상의 픽셀 크기가 필요하며, 본 연구에서는 가로 640픽셀 해상도로 학습해 최소 32픽셀 이상의 객체 크기를 요구한다. 실험에 사용된 CCD 카메라는 8메가 픽셀 해상도를 가지며, 수평 해상도(Camera Horizontal Resolution, CHR)는 3840픽셀이다.
카메라의 화각(Field of View, FOV)은 렌즈의 각도에 따라 동작 거리에 영향을 미친다. 고배줌 렌즈를 장착하면 줌 배율(Zoom Factor)이 증가하면서 화각이 줄어들고, 더 원거리의 객체를 정밀하게 인식할 수 있다. 식 (2)에 따라 10배 줌 렌즈를 장착했을 경우, 동작 거리는 약 190.83 m에 이르며 원거리 산불 및 연기 감지를 가능하게 한다.
2.2 YOLO 기반 딥러닝 객체 탐지
본 연구에서는 YOLOv8 Nano를 사용하여 성능이 제한된 Single Board Computer(SBC) 환경에서도 최적화된 경량 모델을 활용하여 FPS 10 이상의 추론 속도를 달성하였다. YOLOv8은 앵커프리(Anchor-free) 탐지방식을 적용하여 객체의 위치와 종류를 단일 신경망 실행으로 동시에 예측하며, 최적화된 Panoptic Feature Pyramid Network(PAFPN) 기반 백본을 통해 작은 객체탐지 성능을 향상시켰고, 동적 모델 크기 조정을 지원하여 다양한 연산 환경에 최적화된 경량 모델을 제공한다[4].
딥러닝 모델의 성능은 정확도(Accuracy), 정밀도(Precision), 재현율(Recall), 그리고 F1 Score로 평가되며, 각 평가는 True Positive(TP), True Negative(TN), False Positive(FP), False Negative(FN)에 기반한다[6].
딥러닝 모델의 초기 데이터셋은 Roboflow에서 라벨링(Labeling) 처리된 화재 및 연기 이미지 데이터셋을 기반으로 학습 데이터 2095장, 시험 데이터 542장, 검증 데이터 748장 구성으로 100회 반복 학습(Epochs)을 수행했다. 평균 정밀도(mAP@0.5)는 63.8 % 이다.
2.3 이미지 추적 알고리즘
이미지 추적은 컴퓨터 비전 기술을 활용하여 객체를 식별하고 추적하는 과정이다. 본 연구에서는 산불 및 연기와 같은 비정형적 패턴을 추적하기 위해 세 가지 알고리즘을 비교하였다.
Channel and Spatial Reliability Tracking(CSRT)는 공간 신뢰도를 기반으로 높은 정밀도를 제공하며, 복잡한 배경에서도 안정적으로 객체를 추적할 수 있다[7]. 이는 산불의 복잡한 배경 환경에서 비교적 정확한 추적이 가능하다. Minimum Output Sum of the Squared Error tracker(MOSSE)는 경량 알고리즘으로 빠른 추적 속도를 제공하며, 연산 성능이 제한된 Single Board Computer(SBC) 환경에서 효과적이다[8]. 그러나 화재와 연기와 같은 비정형적 패턴에 초기에는 객체를 추적하지만 프레임이 진행되어 객체의 특징이 희석되면 점진적으로 정확도가 떨어진다. Tracking-Learning-Detection (TLD)는 추적, 학습, 탐지 기능을 통합한 알고리즘으로 장기적인 추적에 적합하다[9]. 특히 패턴 변화에 따라 학습하는 특성이 있어 화재와 연기 환경에서도 적용 가능하지만, 비정형적 특징 소실에 따른 추적 성능감소로 안정적인 추적이 어렵다.
2.4 기계적 제어
Nona Filter에서 계산된 총값이 높은 표적의 좌표값은 모터 드라이브로 전달되어 GFED의 공대지 유도제어에 활용된다. GFED 시스템은 특정 고도에서 낙하시간 동안 날개 각도를 조정하여 목표 지점으로 정확히 유도된다.
2.4.1 GFED의 낙하시간
GFED의 낙하시간은 낙하 높이에 따른 종단속도 (Terminal Velocity)를 통해 계산된다. 식 (8)은 GFED의 질량(14 kg), 단면적(0.01 m2), 날개의 단면적(0.002 m2), 항력 계수(0.82)를 기반으로 낙하시간(t)을 수치해석법으로 계산한 수식이다[11].
예를 들어, GFED를 100 m 높이에서 투하할 경우 낙하시간은 약 1.71초, 1 km 높이에서는 약 5.88초로 산출된다.
2.4.2 GFED의 제어거리
GFED의 수평 이동거리와 방향은 날개에 작용하는 항력에 따라 결정된다. 식 (9)는 GFED 투하 시 예상되는 수평 이동거리를 나타내며, 날개의 각도를 변화시켜 제어할 수 있다.
예를 들어, 날개 각도를 45도로 설정하면 GFED의 제어거리는 100 m 고도에서 약 37.33 m, 1 km 고도에서 약 133.28 m로 계산된다.
GFED 시스템 개발 결과
GFED 시스템 개발 결과와 이를 검증하기 위한 실험 내용을 다음과 같이 제시한다. 주요 결과는 화재 및 연기 객체탐지 모델 훈련, Nona Filter의 표적 추적 성능 검증, 그리고 개념증명 하드웨어 개발로 요약된다.
3.1 화재 및 연기 객체탐지 모델 훈련결과
Table 1과 같이 향상된 데이터셋은 초기 데이터셋 대비 성능이 개선되었다.
Table 1.
Comparing the initial and enhanced image data sets
향상된 데이터셋은 데이터 증강 기법을 활용하여 데이터 규모와 다양성을 대폭 확대하였다. 특히, 작은 객체의 탐지 성능을 높이기 위해 픽셀 크기가 작은 화재 및 연기의 작은 크기 표본을 보강하고 이미지 반전, 노이즈 추가, 밝기 조절 등의 기법을 적용하여 모델의 성능을 강화하였다.
향상된 데이터셋을 활용한 모델은 학습 데이터 8,030장, 검증 데이터 1,057장, 테스트 데이터 542장이며, mAP는 87.2 %, 정밀도는 99.4 %, 재현율은 94.0 %로 향상되었다. 또한, 평균 정밀도(mAP@0.5)는 0.638에서 0.873로 증가하여, 전반적인 객체탐지 성능이 향상되었음을 확인할 수 있다.
3.1.1 오검출(False Positive) 검증
오검출(False Positive)은 딥러닝 모델이 실제로 존재하지 않는 객체를 잘못 검출한 경우다. 예를 들어, Fig. 10에서 앰뷸런스 경광등이 화재로 잘못 검출되었으며, 이때의 신뢰값은 0.28로 나타났다. 이러한 문제는 앰뷸런스 경광등의 색상과 형태가 화재의 불꽃과 유사하게 인식된 결과로 판단된다.
오검출 문제를 완화하기 위해 신뢰도 임계값을 조정하였다. Fig. 11의 F1-Confidence 곡선을 분석한 결과, 최적 신뢰도 임계값은 0.457로 도출되었으며, 이를 통해 임계값 미만의 검출결과를 배제하여 오검출 문제를 효과적으로 완화할 수 있었다.
3.1.2 미검출(False Negative) 검증
미검출(False Negative)은 딥러닝 모델이 객체를 검출하지 못한 경우를 의미한다. 예를 들어, Fig. 12에서 초기 모델은 좌측 화재와 연기를 검출하지 못했으나, 향상된 모델은 이를 성공적으로 검출하였다.
미검출 문제는 주로 데이터셋의 다양성 부족과 모델이 비정형적 패턴을 학습하지 못한 경우 발생한다. 이를 해결하기 위해, 이미지 데이터의 추가 및 증강 기법을 적용하였다. Fig. 13에서처럼 이미지 반전, 노이즈 추가, 강도 변경 등의 기법을 활용하여 모델 학습 데이터를 강화하였다.
이러한 증강 기법은 화재 및 연기의 다양한 형태와 조건을 모델이 학습하도록 돕는다. 예를 들어, 이미지 반전은 객체의 다양한 관점을 학습시키며, 노이즈 추가는 실제 환경에서 발생할 수 있는 간섭 상황에 대한 적응력을 높인다. 이와 같은 데이터 증강을 통해 미검출 문제를 효과적으로 개선할 수 있었다[12].
3.2 Nona Filter 표적추적 결과
Nona Filter 기반 표적추적 기술의 성능을 다양한 환경에서 검증하였다.
3.2.1 Nona Filter와 추적 알고리즘
비정형적인 객체인 불은 고정된 형태를 가지지 않고 지속적으로 변형되는 특성을 가진다. 기존 추적 알고리즘은 객체의 특징점을 기반으로 객체 추적 방식을 사용하기 때문에 불규칙적인 변화에 대해 취약하다.
Nona Filter와 기존 추적 알고리즘(CSRT, TLD, MOSSE)의 성능을 비교하기 위해 18초(408 프레임) 분량의 산불 화재 영상을 사용하였다. 실험 결과, Nona Filter는 100 %의 재현율을 기록한 반면, CSRT는 94.9 %, TLD 는 79.9 %, MOSSE는 4.9 %의 재현율을 보였다.
식 (4)에 따르면 FN이 감소할수록 재현율은 증가한다. Nona Filter가 홀수 프레임마다 새롭게 탐지된 객체를 제공함으로써, 짝수 프레임에서 실행되는 추적 알고리즘은 산불의 비정형적 특성에도 불구하고 높은 추적 신뢰도를 유지할 수 있다. 식 (12) 처럼 연속된 두 프레임에서 모두 FN이 발생해야 결합된 FN이 발생하게 된다. 홀수 프레임에서는 Nona Filter가 표적을 탐지하고, 짝수 프레임에서는 MOSSE와 같이 높은 속도 FPS의 추적 알고리즘이 표적을 추적하는 상호보완적인 결합이 된다.
Nona Filter와 추적 알고리즘간 결합 성능을 검증하였다. 모든 조합에서 재현율이 100 %로 나타났으며, 경량 추적 알고리즘인 MOSSE와 결합했을 때 Table 2와 같이 FPS 13.39에서 20.3으로 51 % 향상되었다. MOSSE 의 빠른 처리 속도를 활용함으로써 연산 성능이 제한된 환경에서도 효율적인 추적이 가능함을 확인하였다.
3.2.2 야간 Nona Filter 검증
Nona Filter의 야간 환경 성능을 검증하기 위해 적외선 기반 이미지 전처리 기법을 적용하였다. 이 전처리는 화재의 열 신호를 강조하여 낮은 광량에서도 객체를 명확히 식별할 수 있도록 한다. Fig. 15에서 확인할 수 있듯이, 적외선 기반 전처리와 데이터 증강 기법을 결합한 결과, Nona Filter는 야간 환경에서도 화재 추적 성능을 유지하였다. 이는 다양한 환경에서 Nona Filter가 안정적으로 작동할 수 있음을 입증한다.
3.3 개념증명 하드웨어 개발
GFED 시스템의 개념증명을 위해 유선제어와 독립형 설계를 기반으로 실험을 수행하였으며, 항공역학적 분석을 통해 최적화된 하드웨어를 개발하였다. 3가지 SBC별 Nona Filter를 구동한 결과를 Table 3과 같이 비교 분석하였다.
Table 3.
Compare to SBCs
3.3.1 유선제어 GFED 개념증명
GFED 설계의 초기 검증 단계에서, 컴퓨터 기반 추론을 유선통신으로 연결하여 시스템의 유도제어가 정상적으로 작동하는지 실험하였다. Fig. 16과 같이 녹화된 산불 영상을 활용해 가상의 환경을 조성하였으며, 물리적 구동 실험을 통해 GFED 유도제어가 의도한 대로 작동함을 확인하였다.
3.3.2 독립형 GFED 제작 및 실시간 유도제어
Fig. 17은 Jetson Nano를 기반으로 설계된 독립형 GFED이며, 표적 추적과 자율제어 동작을 구현하였다. SBC 환경에서 연산 속도가 제한되는 문제를 극복하기 위해 경량화된 YOLOv8n 객체 탐지 모델을 적용하였으며, 이를 통해 딥러닝 추론 성능을 극대화하였다. Nona Filter는 표적의 좌표를 계산하여 서보모터에 전달하며, 4개의 하이토크 서보모터는 각도를 조정해 표적을 추적한다. 또한, 근접센서가 작동하면 탑재된 고압탱크에서 소화약제가 분출되어 화점에 대응한다.
3.3.3 항공역학적 분석 기반 GFED 개발
Fig. 18에서 확인할 수 있듯이, GFED는 항공역학적으로 설계되어 무게중심(전방 43.1 %)과 공력중심(전방 50.3 %)을 고려하여 제작되었다. 이러한 설계는 GFED 가 낙하 중 안정성과 유도 제어 성능을 유지할 수 있도록 한다. 전체 질량은 14 kg으로, 10 kg의 소화약제를 탑재할 수 있으며, 재질은 경량성과 내구성을 고려해 폴리카보네이트와 생분해성 폴리젖산(PLA)으로 제작되었다.
3.4 GFED 성능평가
GFED 시스템의 성능을 평가하기 위해 30 m 거리에서 B급 1단위 화재모델을 대상으로 객체 인식 및 유도제어 실험을 수행하였다.
3.4.1 모의 B급 1단위 화재모델 인식 실험
Fig. 19에서와 같이, 모의 B급 1단위 화재모델을 이용하여 GFED의 객체 인식 성능을 검증하였다. 30 m 거리에서 Nona Filter는 화재 모델의 경계 상자를 2,000픽셀 면적으로 인식하였으며, 이는 화재를 정확히 식별하기 위한 최소 픽셀 크기이다.
이 실험을 통해 GFED가 30 m 거리에서도 안정적으로 화재를 인식할 수 있음을 확인하였으며, 이는 실제 산불 대응에서의 유효 거리를 설정하는 데 중요한 기준이 된다.
3.4.2 화재인식 성능평가
Fig. 20은 30 m 거리에서 B급 1단위 화재모델을 대상으로 화재 인식 및 추적 성능을 평가하였다.
카메라 인식을 통한 GFED는 평균 13 FPS의 추론 속도로 화재를 성공적으로 인식하고 추적하였다. 이는 실시간 화재 추적에 충분한 성능을 제공하며, 연산 성능이 제한된 SBC 환경에서도 안정적으로 작동할 수 있음을 보여준다.
3.4.3 화점 변경에 따른 유도제어 성능평가
Fig. 21은 레일 위에서 화재모델을 이동시켜 유도제어 성능을 검증하였다. 화재 모델의 위치가 변경될 때마다 Nona Filter는 실시간으로 표적 좌표를 계산하였고, 5픽셀당 날개 각도를 1도씩 조정하여 정확히 추적하였다.
이 실험은 GFED가 화재 위치가 변하는 동적인 환경에서도 표적을 추적하고 물리적 유도 제어가 가능함을 보여주었다.
결론
본 연구는 실시간 영상 인식 및 자율제어를 기반으로 GFED(유도소화장치)의 개발과 기초 평가를 성공적으로 완료하였다. 객체탐지 딥러닝 모델과 추적 필터를 통합하여 다수의 화재 및 연기 표적 중 최적의 표적을 안정적으로 추적할 수 있음을 입증하였다.
또한, 30 m 거리에서 B급 1단위 화재모델을 대상으로 평균 FPS 13으로 유도제어 성능을 검증하였으며, GFED 시스템이 실시간 추적 및 제어를 수행할 수 있음을 확인하였다. 이러한 결과는 GFED가 산불 대응을 위한 혁신적인 소화 시스템으로 활용될 가능성을 보여준다.
향후 GFED 시스템의 실용화를 위해 공력 해석 및 6자유도 분석[13], 소화제 분사 센서 개발, 그리고 역동적 환경에서의 실험이 필수적이다. 특히, 다양한 산불 환경에서의 성능 검증과 정밀 투하 기술 개발은 GFED 의 신뢰성을 높이는 데 핵심적인 역할을 할 것이다.
이와 같은 후속 연구를 통해, GFED는 100 m 이상 고도에서 정밀하게 투하되어 산불 방화선을 정밀하게 구축할 수 있는 인공지능 기반 자율유도 소화 시스템으로 발전할 것이다.