J. KIMS Technol Search

CLOSE


J. KIMS Technol > Volume 28(6); 2025 > Article
고정밀 지면 감시를 위한 UAV 장착용 LiDAR 개발

Abstract

This study proposes a UAV-mounted LiDAR system for high-precision ground surveillance. The proposed LiDAR system is designed to achieve an angular resolution of 0.01 degree, providing a beam spot diameter of 20 cm at an altitude of 500 m. A compact pulsed laser operating at 1550 nm and a high-performance SSPM were used for eye safety. 3D mapping of ground structures including buildings, trees, and monuments were conducted with the hexa-copter drone. The drone-mounted experiment was conducted at an altitude of 200 meters, and the shapes of complex structures were successfully measured.

서 론

특정 물체나 활동을 감지, 식별, 분석하여 추적하는 감시 기술은 국경 보호 및 전술 지원과 같은 군사 분야에 있어 빠질 수 없는 요소로[1-9], 통상적으로 널리 이용되는 감시 기술로는 지상 감시 radio detection and ranging(RADAR)나 electro-optic/infra red(EO/IR), 열화상 감지 기술 등이 존재한다[4,10-12].
RADAR는 수 MHz에서 수십 GHz 대역의 전자기파를 이용하며, 특성상 악천후와 같은 기상 환경의 영향에 둔감하고 수 km 이상의 감시 거리를 가진다. 하지만 상대적으로 긴 파장을 사용하는 특성상 공간 분해능 한계가 존재하며, 이를 극복하기 위해 synthetic aperture RADAR(SAR)나 compressed sensing과 같은 기술들이 적용되어왔다[13-15].
EO/IR 기술은 광학 센서를 이용해 가시광 영역부터 적외선 영역까지 넓은 파장 영역에 걸친 정보를 획득하는 기술이며, RADAR 대비 단파장의 전자기파를 기반으로 동작한다[5,16,17]. 이러한 특성으로 인해 EO/IR은 상대적으로 높은 공간 분해능을 확보할 수 있으며, 더불어 초분광 영상기술과의 결합을 통해 물질의 고유 스펙트럼을 확인하는 등 향상된 감시 성능 확보 또한 이루어지고 있다[6,18-20].
Light detection and ranging(LiDAR)은 광파를 이용하여 원거리에 위치한 물체와의 거리 또는 형상을 측정하는 기술로, RADAR와 동일하게 전자기파를 방출, 물체로부터 반사되어 수집되기까지 지연된 시간을 토대로 물체의 거리를 알아낸다[7-9]. EO/IR과 마찬가지로 LiDAR는 RADAR 대비 훨씬 짧은 파장의 전자기파를 이용하며, 따라서 높은 공간 분해능을 요구하는 고정밀 지면 감시 기술로 적합하다[21-23]. 특히, 단일광자 수준의 고감도 광검출 기술개발로 LiDAR의 탐지거리는 비약적으로 향상되고 있으며, 이를 통한 다양한 응용 연구 또한 활발히 진행되고 있다[24,25].
본 연구에서는 InGaAs solid-state photomultiplier(SSPM)을 활용한 고감도 탐지 기술을 적용하였으며[26], 이를 기반으로 unmanned aerial vehicle(UAV) 플랫폼에서 지면의 3차원 정보를 획득할 수 있는 LiDAR 시스템을 구현하였다. 제안된 LiDAR 시스템은 500 m 상공에서 UAV의 진행 방향에 수직으로 5° 이상의 스캔 각도와 0.01°의 스캔 간격으로 측정이 가능하도록 설계되었다. 본 연구에서는 LiDAR 구현 및 UAV 탑재 3차원 영상 생성에 중점을 두었으며, UAV 장착시험을 통해 실제 성능을 확인하였다.

LiDAR 설계 및 개발

2.1 Photon budget 계산

제안하는 LiDAR 시스템은 500 m 상공에서 지면 감시를 목적으로 개발되었다. 따라서 설계된 조건에서 신호 수집의 가능성을 확인하기 위해 photon budget 계산이 선행되어야 한다. Photon budget은 아래 LiDAR range 수식을 통해 도출할 수 있다[24].
(1)
PR=P0DR2ηAtmηOptρ4L2>SR
여기서 PR은 수신 광 세기, P0는 레이저 초기 출력, DR은 수신 광학계 직경, ηAtm은 대기 투과율, ηOpt는 광학계 투과율, ρ는 측정대상의 반사율, L은 측정대상까지의 거리를 의미한다. 검출기의 민감도를 SR이라 할 때, 측정 거리에 위치한 물체로부터 돌아온 광의 신호 세기는 검출기 민감도보다 커야 한다. 대기 투과율과 광학계 투과율은 photon budget 계산의 편의성을 위해 각각 100 %, 50 %로 근사하였다. 지상 감시 LiDAR 운용 시 근적외선 영역에서 물을 제외하고 가장 낮은 반사율을 가지는 대상은 아스팔트로, 대략 10-20 % 수준의 반사율을 가지는 것으로 확인된다[28-30]. 본 연구에서는 보다 열악한 조건인 10 %의 반사율을 기준으로 photon budget을 계산하였다.
Table 1은 LiDAR 운용환경에 해당하는 고정변수와 LiDAR 시스템의 특성값을 나타내고 있다.
Table 1.
Parameter of the LiDAR system for photon budget calculation
Parameter Value
Fixed variables Target distance L 500 m
Atmospheric transmittance ηAtm 100 %
Reflectivity of target ρ 10 %
LiDAR system design values Optics transmittance ηOpt 50 %
Initial laser peak power P0 3 kW
Rx optics diameter DR 20 mm
Fig. 1은 측정대상까지의 거리 L에 따른 photon budget 계산 결과를 보여준다. 계산에 따르면 1 km 떨어진 물체로부터 반사된 빛의 검출 세기는 약 10 nW (-50 dBm) 수준으로 확인된다. 따라서, 제안된 광학적 특성을 고려할 때 km급 측정이 가능한 LiDAR 구현을 위해서는 SSPM 검출기 감도가 최소 −50 dBm 이상이어야 함을 알 수 있다.
Fig. 1.
Photon budget calculation result
KIMST-2025-28-6-604f1.jpg
본 연구에서는 −50 dBm 수준의 고감도 광검출기 구현을 위해 SSPM을 활용하였다. 먼저 개발된 검출기의 특성을 확인하기 위해 검출기에 입력되는 펄스 레이저 세기를 조절하면서 출력되는 전압을 확인하였다. 앞서 확인한 바와 같이, 1 km 떨어진 물체(10 % 반사율)로부터 반사된 신호는 약 10 nW 수준으로 예상되기 때문에 입력 광 세기를 10 nW로 가정하고 실험을 진행하였다. Fig. 2(a)는 약 10 nW 크기와 1 ns 펄스폭을 가지는 펄스 레이저를 SSPM 기반 검출기에 입력했을 때 나타나는 출력이다. 그림을 통해 알 수 있듯, 펄스 레이저 신호가 도달하기 전에 약 20 mV의 기저 잡음이 존재하며, 이는 펄스 레이저 및 주변장치로부터 기인하는 것으로 보인다. 펄스 레이저 신호가 검출될 경우, 약 98 mV의 출력을 가지는 신호가 생성된다. Fig. 2(a) 에 나타난 바와 같이 잡음 대비 신호의 크기가 충분히 크기 때문에 신호 잡음을 구분하기 위한 문턱전압을 20 mV에서 98 mV 사이로 설정함으로써 −50 dBm 이상의 SSPM 검출기 감도를 확보할 수 있다. 다만, Fig. 2(a)에서 확인할 수 있듯, 펄스 수신 이후 전압이 복구되는 과정에 overshooting의 경향성이 확인(70 ns 인근)되며, 잘못된 거리정보 획득을 방지하기 위해 해당 전압보다 문턱전압을 높게 설정해야 한다.
Fig. 2.
(a) Experimental results of SSPM's sensitivity and (b) effect of dead time
KIMST-2025-28-6-604f2.jpg
다음으로 연속펄스 레이저 신호에 대한 SSPM 기반 검출기의 반응 특성을 확인하였다. 연속펄스 레이저 검출 능력은 다중반사 상황에서 point cloud 이미지의 깊이 분해능을 결정짓는 핵심 요소이며, 다중반사 조건을 모사하기 위해 optical delay line을 활용하여 두 개의 펄스가 시차를 가지고 검출기에 입력되도록 설정하였다. Fig. 2(b)는 약 1.49 ns의 시차를 가지는 연속펄스가 입력되었을 때 SSPM 기반 검출기의 출력을 보여준다. Fig. 2(b)를 통해 SSPM 기반 검출기는 1.49 ns 의 시차를 가지는 연속펄스 레이저를 충분히 구분 가능하다는 것을 확인할 수 있으며, 이는 물리적으로 11.17 cm 수준(round trip = 22.35 cm)의 깊이 분해능을 가짐을 의미한다.

2.2 LiDAR 광학계 구성

Fig. 3은 LiDAR의 광학계 구조를 보여주고 있다. 송신광 시준기로는 7.5 mm의 초점거리를 지닌 콜리메이터를 적용하였으며, 수신광 시준기의 경우 33 mm의 초점거리를 지닌 콜리메이터를 적용하였다.
Fig. 3.
Schematic diagram of an optic parts of the LiDAR system
KIMST-2025-28-6-604f3.jpg
송신빔은 펄스 레이저로부터 단일모드 광섬유를 통해 송신광 시준기에 입력되며, 공간형 광속 분리기에서 반사된 뒤 스캐너로 전달, 이후 광속확대기를 통해 외부로 방출된다.
수신광은 광속 분리기 이전까지 송신광과 동일한 경로를 따르며, 광속 분리기 중 반사 코팅이 없는 부분을 통해 수신광 시준기로 전달된다. 공간형 광속 분리기에서 반사 코팅으로 인해 가려지는 면적은 수신광 면적 기준 10 % 미만이 되도록 설계되었다.
태양광 잡음 차단을 위해 두 종류의 필터가 적용되었다. 먼저, long pass filter를 통해 1300 nm 이하 파장 대역이 차단되며, 이후 1550.6 nm만을 통과시키는 bandpass filter(FWHM = 1.8 nm)를 통해 투과대역을 제외한 나머지 파장 영역이 추가적으로 차단된다. Bandpass filter를 통과한 수신광은 수신광 시준기를 통해 다중모드 광섬유(200 um)로 집속되어 SSPM으로 전달된다.
광속확대기는 Keplerian 구조로 설계되었으며, 배율은 3배로 설정하였다. 스캐너는 단축 galvanomirror scanner가 활용되었다.
LiDAR 구성품의 효율적 배치를 위해 folding mirror 를 광속확대기 후단에 배치함으로써 송수신광이 90° 꺾여 전파되도록 설계되었다.

2.3 UAV 장착용 LiDAR 구현

Fig. 4(a)는 UAV 장착용 LiDAR의 구성 및 형상을 보여준다. Fig. 4(a)에 나타난 바와 같이, 제안하는 LiDAR는 펄스 레이저, 광학계, SSPM, 그리고 control unit으로 구성된다. LiDAR 시스템은 UAV로부터 전달되는 진동을 억제하기 위해 방진 어댑터를 이용하여 UAV와 결합된다. LiDAR 구동을 위한 power supply (리튬 이온 배터리)와 데이터 수집 및 LiDAR 구동을 위한 single board computer(SBC, Raspberry Pi 5)는 UAV 상에 별도 결합된다.
Fig. 4.
(a) Schematic diagram of the LiDAR system for UAV platform and (b) 3D CAD modeling assembly of the LiDAR system
KIMST-2025-28-6-604f4.jpg
Fig. 4(b)는 제작된 LiDAR 시스템의 형상을 나타내고 있다. 제작된 LiDAR의 부피는 대략 2,800 cm3 수준이며, 무게는 2 kg 미만으로 확인되었다.

2.4 스캐닝 및 항법 보정기술

2.4.1 LiDAR 스캐닝

제안하는 LiDAR 시스템은 Fig. 5(a)와 같이 UAV 비행 방향에 수직으로 지면을 스캔한다. 이를 부정합(nadir) 각도를 둔 방식으로 부르며, 진행 방향과 데이터 취득 범위가 대체로 일정해서 line scan 방식이라고도 한다. 이러한 방식은 좁은 각도 스캔으로 목표 지면을 더 집중적으로 측정할 수 있어, 해상도가 중요시되는 임무에 유리하다. 스캐닝 영역에서 균일한 데이터 획득을 위해 스캐너는 ramp function으로 가동되며, whisk broom scan 방식을 이용한다. Fig. 5(b)는 임의의 고도 H에서 운용되는 UAV LiDAR의 지면 스캔 패턴을 보여준다.
Fig. 5.
(a) Scan mechanism of the proposed LiDAR system and (b) longitudinal and transverse scan resolution of the LiDAR
KIMST-2025-28-6-604f5.jpg
지면이 평평하고 scan angle 0°에서 방출된 빛이 지면에 수직(pitch, roll 모두 0°)이라 가정할 때, UAV 진행 방향에 직교하는 축(Y-axis)에 대한 스캔 길이를 의미하는 횡축 스캔 범위(transverse scan range, RT), UAV 진행 방향에 평행한 축(X-axis)에 대한 스캔 길이를 의미하는 종축 스캔 범위(longitudinal scan range, RL), 는 다음과 같이 표현된다.
(2)
RT=2tan(θscan2)HπθscanH180
(3)
RL=vUAV2fscan
여기서 H는 UAV 운용 고도[m], θscan은 LiDAR의 스캔 각도[degree], vUAV는 UAV 비행 속도[m/s], sscan은 LiDAR 스캔 속도[Hz]를 의미한다.
스캔 간 간격(scan spacing, Rspacing)과 1회 스캔 과정에 방출되는 펄스 개수(# pulse per scan, NPPS)는 아래와 같이 정의할 수 있다.
(4)
Rspacing=2RL=vUAVfscan
(5)
NPPS=0.5fPRRfscan
여기서 fPRR은 펄스 반복률, fscan은 LiDAR 내 Galvanomirror scanner의 스캔 반복률을 의미한다.
위 수식을 토대로 횡축 스캔 간격(transverse scan interval, ΔRT)과 종축 스캔 간격(longitudinal scan interval, ΔRL)은 다음과 같이 표현할 수 있다.
(6)
ΔRT=RTNPPS
(7)
ΔRL=RLNPPS
Fig. 5(b)에 나타난 바와 같이 스캐닝 중에도 UAV 는 움직이며, 이로 인해 스캔 패턴은 비스듬하게 형성되며, 이로 인해 발생한 각도를 skew angle(θskew)라 한다.
(8)
θskew=atan(RLRT)=atan(90vUAVπfscanθscanH)
Skew angle을 고려한 대각 스캔 범위(diagonal scan range, RD)와 대각 스캔 간격(diagonal scan interval, ΔRD)은 아래와 같이 표현할 수 있다.
(9)
RD=RTcosθskew
(10)
ΔRD=RDNPPS

2.4.2 GNSS/IMU 기반 항법 보정

정확한 스캐닝 정보를 획득하기 위해서는 스캔 당시 UAV 위치 경로와 자세(roll, pitch, yaw)가 무엇보다 정확히 추정되어야 한다. Global navigation satellite system(GNSS)을 통해 UAV의 위치를 측정하고, inertial measurement unit(IMU)의 가속도와 각속도 측정을 결합하여 UAV의 위치와 자세 정보를 얻을 수 있다. GNSS는 전리층 영향, 신호 단절 등으로 오차가 발생하므로, 누적 오차를 줄이기 위한 보정이 필요하다. IMU는 장시간 운용 시 드리프트 오차(drift error)가 누적된다. 원시 데이터를 보정 없이 스캔 데이터와 결합하면 점군 불일치가 발생하여 정확한 3D 형상을 얻기 어렵다[31]. 보정의 목표는 시점별 플랫폼의 위치와 자세에 대한 오차를 최소화하여 점군(point cloud)의 불일치를 제거하는 것이다.
본 시스템은 고정밀 지면 감시를 위해 협시야(narrow FOV) Galvanomirror scanner를 채택하였다. 이는 rotating polygon mirror 기반 광역 스캐닝 대비 보정 매개변수 차원을 줄이며 boresight 보정 시 최소 매개변수 집합만으로도 충분한 정확도를 확보하게 한다[32]. 점군 정합 성능은 항법 해(trajectory solution) 품질에 직접 의존하므로, GNSS/IMU 융합과 post-processed kinematic (PPK)를 결합하여 항법 해 정밀도를 높였다[33,34].

2.4.3 PPK 기반 보정

본 연구의 PPK/INS 처리는 NovAtel Waypoint Inertial Explorer Xpress(Embedded 40K license)로 수행했다. 소프트웨어 엔진의 내부 알고리즘 및 파라미터는 비공개이므로, 재현성을 위해 Table 2에 설정과 입력값을 명시하였다.
Table 2.
Acquisition/processing metadata
Item Value
Software (PPK) NovAtel Waypoint Inertial Explorer Xpress v1.10.0.0
GNSS receiver type NovAtel
Azimuth filter 237-303°
IMU sampling rate 200 Hz
Primary GNSS antenna lever arm (gnavb) 0.05, 0.135, 0.12 m
Secondary GNSS antenna None
PPK 기반 보정 과정은 크게 두 단계로 구성된다. 첫째, 기준국(base station)에서 수집된 RINEX 파일(.o, .n 확장자로 구성)을 활용해 UAV가 비행 중에 기록한 GNSS 신호를 PPK 방식으로 보정하여 고정밀 궤적 좌표를 산출한다. 둘째, 개선된 GNSS 좌표를 IMU 데이터와 결합함으로써 항법 해의 위치와 자세를 정밀하게 추정하게 된다. 본 절차의 세부 절차는 다음과 같다[35].
I. 동시 관측 데이터 확보
UAV GNSS 원시 데이터를 기준국의 RINEX 파일과 시간 동기화. 기준국의 고정밀 좌표를 이용해 UAV와 기준국 사이 GNSS 측정치의 오차 성분을 분리 및 추정함.
II. 차분(differential) 계산
UAV와 기준국이 공유하는 공통 편차(대기 특성, 위성 궤도 등)와 기지국-UAV 간 기하학적 배치에서 오는 편차를 제거하거나 최소화함. 이때 공통 편차(대기, 궤도 등)를 제거 및 축소하고, 순, 역방향 필터링으로 안정적인 해를 도출함.
III. INS 보정(loosely coupled)
UAV에 탑재된 IMU가 기록한 가속도 및 각속도를 Kalman filter를 활용함으로써 기체의 상태 벡터(위치, 속도, 자세)를 단계적으로 예측함. 이때, Kalman filter로 상태(위치, 속도, 자세)를 추정하고, PPK 좌표를 토대로 잔차를 최소화하며 공분산을 갱신함. GNSS 품질 저하 구간에서 관성 정보로 상태 추정이 지속되어 최종 경로와 자세의 정확성이 전 구간에 걸쳐 크게 향상됨.
IV. INS 보정(tightly coupled)
GNSS 신호의 위상, Doppler 관측치를 INS 필터 내부에 통합해 GNSS 수신 위성 개수가 일시적으로 줄어도 연속적으로 추정 가능함.

2.4.4 좌표계 변환

UAV가 획득한 LiDAR 점군을 전역 기준 좌표계로 변환하고, 센서-기체 간 boresight와 lever arm을 보정한다. 이를 위해 UAV 기체 자세 행렬과 위치 보간을 거쳐 센서 좌표계에서 지도 좌표계로의 일관된 변환을 구현한다.

2.4.4.1 UAV 자세 변환 행렬

LiDAR 센서 프레임 l, UAV 기체 프레임 b, universal transverse Mercator(UTM) 기반의 지도 프레임 m으로 표기한다. 센서와 기체 간의 고정 기하학적 관계는 boresight 행렬 Rlb(Δχ,Δϕ,Δω) 로 정의한다. 이는 이후 2.3.3.3절에서 센서-UAV 기체 변환과 lever arm 보정에 적용된다[32,36].
지도 프레임 m은 UTM 기반 east-north-up(ENU)로 정의하며, UAV 기체 프레임 b는 north-east-down(NED) 으로 정의한다. ENU에서 NED로 변환 행렬 Rnm은 축 순서 변경 및 up/down 축 반전을 포함하므로 다음과 같이 정의된다.
(11)
Rnm=[010100001]
UAV 기체의 시간 t에서 자세 변환 행렬은 다음과 같다.
(12)
Rbm(t)=RnmRbn(t)
여기서 Rbn(t)는 헤딩, 기울기, 좌우 경사 순서로 적용 하여 현실적인 기체 동작을 그대로 반영하기 위해서 UAV의 회전을 Tait-Bryan 각으로 표현할 수 있다.
(13)
Rbn(t)=(Rz(ψ)Ry(θ)Rx(ϕ))T
Z축 회전(yaw)의 회전 행렬은 다음과 같다.
(14)
Rz(ψ)=[cosψsinψ0sinψcosψ0001]
Y축 회전(pitch)의 회전 행렬은 다음과 같다.
(15)
Ry(θ)=[cosθ0sinθ010sinθ0cosθ]
X축 회전(roll)의 회전 행렬은 다음과 같다.
(16)
Rx(ϕ)=[1000cosϕsinϕ0sinϕcosϕ]

2.4.4.2 UAV 위치 보간

LiDAR 포인트는 각 발사 시각별로 UAV에 탑재된 GNSS/IMU 측정값과 동기화한다. 두 GNSS 측정 시점 titi + 1 사이의 위치 변화량 ΔP = Pi + 1 - Pi를 100등분 하여 선형 보간하고, 각 보간된 시각에서 UAV 위치 gnavm(ti)를 계산한다. 이렇게 계산된 시각별 UAV 위치는 2.4.4.4절의 외부표정 변환 단계 입력으로 사용된다.

2.4.4.3 센서-UAV 기체 좌표계로 변환

각 레이저 펄스 시점마다 LiDAR 센서 좌표계에서 의 점 좌표 pl(ti)를 계산하기 위해, 사전에 계산된 측정 각도의 sin 및 cos 값 테이블을 사용한다. 단일 축 스캔 평면 가정하에 xl = 0으로 두고, 측정 거리 D와 레이저 펄스 발사 각도 θlookup(ti)가 주어졌을 때 다음과 같이 변환된다.
(17)
yl(ti)=Dsin(θlookup (ti))
(18)
zl(ti)=Dcos(θlookup (ti))
이 과정에서 유효 범위를 벗어나는 거리는 제외하며 최종적으로 다음과 같이 센서 좌표계의 3차원 점을 구성한다.
(19)
pl(ti)=[0yl(ti)zl(ti)]
LiDAR 센서 좌표계 점 pl(ti)에 내부 보정 행렬 C 를 적용한 후 boresight 행렬 Rlb로 회전하고 GNSS/INS 참조 점과 LiDAR 센서 간 lever arm 벡터 glb를 더해 UAV 기체 좌표계로 변환한다.
(20)
pb(ti)=Rlb(Cpl(ti))+glb

2.4.4.4 전역 좌표계로 변환

UAV 기체 좌표계 점 pb(ti)Rbm(ti)를 적용하고 GNSS/INS로 보간된 UAV 위치 gbm(ti)를 더하여 전역 좌표계로 변환한다. 이 과정에서 range-bias br 스캔 각도 스케일 Sθ, 영점 편차 θ0 시스템 오차 보정 항 e(br,Sθ0)를 함께 고려한다.
(21)
pm(ti)=gbm(ti)+Rbm(ti)pb(ti)+e(br,Sθ,θ0)

2.4.5 Boresight 행렬 및 시스템 오차 추정

PPK/INS 항법 해(gbm(t),Rbm(t))를 기반으로, 센서 와 기체 간 장착 오차인 boresight 행렬 Rlb 및 시스 템 오차를 추정한다[32,36]. 본 시스템은 단일 축 스캐너를 채택하여 보정 매개변수가 단순하므로, 오차항 e(br,Sθ0) 중 가장 지배적인 스캔 각도 영점 편차 θ0와 스케일 Sθ만을 boresight 각도와 함께 추정 변수로 고려했다. range-bias br는 본 시스템의 측정 거리 범위에서 영향이 미미하여 추정 변수에서 제외한다.
최적의 Δω,Δφ,Δψ,Sθ0를 찾기 위해, 서로 다른 시점에 스캔된 중첩 구간은 동일한 평면을 형성해야 하며, 이를 기하학적 제약 조건을 활용한다[32,36].
(22)
d(ti)=npm(ti)+d0
여기서 n은 평면의 법선 벡터, d는 원점으로부터의 거리이다. 식 (22)의 전역 좌표 변환 식을 식 (23)에 대입하면, 추정하고자 하는 파라미터에 대한 비선형 방정식이 된다. 목적 함수는 모든 관측점 i에 대한 가중 거리 제곱합을 최소화하는 것으로, 다음과 같이 정의된다.
(23)
minΔω,Δϕ,Δψ,Sθ,θ0iwid(ti)2
이때 가중치 wi는 관측의 신뢰도를 나타내며, 본 연구에서는 반사된 레이저의 강도(intensity)에 비례하도록 설정하였다.
이 비선형 모델을 풀기 위해, 현재 파라미터 추정치 주변에서 식 (22)를 1차 테일러 급수로 선형화한다.
(24)
Aδx=l+v
여기서 A는 자코비안(Jacobian) 행렬, δx는 파라미터 보정 벡터, l = -d(ti)은 오차(misclosure) 벡터, v는 잔차(residual) 벡터이다. 식 (23)에서 식 (24)를 반복적으로 갱신하여 보정벡터 δx가 수렴 기준 10-6 이하로 작아질 때까지 최적화를 수행한다. 이 과정에서 이상치의 영향을 줄이기 위해 Huber/Geman-McClure 가중 함수를 적용하여 강인한 추정이 가능하도록 설계하였다.
Lever arm glb는 사전에 정밀하게 측정된 값으로 고 정하였고 내부 보정 행렬 C는 본 최적화에서 단위행렬로 가정하였다.

2.5 주변장치

2.5.1 전원공급기

UAV 플랫폼에서 구동 시, LiDAR 시스템의 펄스 레이저와 control unit에 전원을 공급하기 위해 분리 가능한 별도의 전원공급기가 사용된다. 사용된 전원공급기의 제원은 Table 3과 같다.
Table 3.
Power supply specifications
Item Specifications
Model INERGY 3U
Size 240 × 140 × 30 mm
Weight 1,145 g
Capacity 30,000 mAh

2.5.2 Single board computer

UAV 상에 결합된 SBC는 사용자 명령을 통해 LiDAR 시스템을 실시간 제어한다. 사용된 SBC의 제원은 Table 4와 같다.
Table 4.
Single board computer specifications
Item Specifications
Model Raspberry Pi 5
Size 86 × 56 × 16 mm
Weight 46 g
Input 5 V DC, Max 5 A
Fig. 6은 LiDAR 시스템의 데이터 흐름을 보여준다. SBC는 사용자로부터 명령을 수신한 후 이를 control unit에 전달하며, 구체적으로 laser power 제어, Galvanomirror scanner 제어, 데이터 송신 요청 등의 명령을 전달한다. 송신 요청 이후 LiDAR로부터 수집된 데이터를 수신하고 저장한다.
Fig. 6.
Schematic diagram of the data flow for the LiDAR system
KIMST-2025-28-6-604f6.jpg

2.6 UAV LiDAR 특성 비교

Table 5는 본 연구에서 개발된 LiDAR와 상용 airborne LiDAR 2종의 특성을 나열하고 있다. 상용 LiDAR의 경우 pulse repetition rate, scan interval 등의 조정이 가능하나, 정량적 비교를 위해 본 LiDAR의 개발 목적(500 m 이상의 고도에서 운용되는 고정밀 지면 감시용 LiDAR)에 최대한 근접한 조건을 기준으로 특성을 나열하였다.
Table 5.
Comparison of commercial and developed LiDARs for airborne applications
Item This work RIEGL TELEDYNE OPTECH
Model - VUX-24024 CL-360XR
Scanner type Galvanomirror scanner Rotating polygon mirror Rotating polygon mirror
Line scan rate 100 lines/s 50 - 800 lines/s 50 - 250 lines/s
Pulse rep. rate 100 kHz 300 - 2400 kHz 50 - 500 kHz
Beam div. angle 0.4 mrad 0.4 mrad 0.3 mrad
Scan angle ±2.5° ±37.5° 360°
Max. distance 801.22 m[26](@ ρ = 10 %,fPRR = 100 kHz) 810 m (@ ρ = 20 %,fPRR = 300 kHz) 610 m (@ ρ = 10 %,fPRR = 50 kHz)
Corresponding scan interval 0.01°(@ 100 lines/s,fPRR = 100 kHz) 0.0125°(@ 50 lines/s,fPRR = 300 kHz) 0.36°(@ 50 lines/s,fPRR = 50 kHz)
Volume < 2,800 cm3 4,436 cm3 5,753 cm3
Weight < 2 kg 2.7 kg 3.5 kg
Energy consumption < 30 W 65 W 35 - 40 W

2.6.1 최대 측정 거리

최대 측정 거리의 경우 RIEGL 社의 VUX-18024 제품의 경우 810 m 수준으로, 제작된 LiDAR의 801.22 m[26]보다 소폭 먼 것을 볼 수 있다. 다만, VUX-18024의 경우, 대상의 반사율을 20 %로 상정하고 있으며, 동등 조건(10 % 반사율)을 기준으로 계산할 경우, 최대 측정 거리가 다소 감소할 것으로 예상할 수 있다.

2.6.2 스캔 간격(최대 측정 거리 기준)

스캔 간격은 최대 측정이 가능한 조건에서 계산된 결과를 보여주고 있으며, RIEGL 社의 VUX-18024 제품은 0.125°, TELEDYNE OPTECH 社의 CL-360XR 제품의 경우 0.36°로 계산된다. 제작된 LiDAR의 스캔 간격은 0.01°로, 스캔 간격(ΔL)으로 환산 시 500 m 거리에서 8.7 cm 간격으로 측정이 이루어짐을 의미한다.

2.6.3 SWaP(Size, Weight, and Power)

부피의 경우, RIEGL 社의 VUX-18024 제품은 4,436 cm3, TELEDYNE OPTECH 社의 CL-360XR 제품은 5,753 cm3로 확인된다. 반면, 본 연구에서 활용된 LiDAR의 부피는 2,800 cm3 수준으로, RIEGL 社의 VUX-18024 제품의 63.1 % 수준에 그친다. 무게의 경우 RIEGL 社의 VUX-18024 제품은 2.7 kg, TELEDYNE OPTECH 社의 CL-360XR 제품은 3.5 kg으로 확인되는 반면, 제작된 LiDAR는 2 kg 미만으로 이는 각 상용 LiDAR 대비 57, 74 % 수준에 해당한다. 마지막으로 전력 소모의 경우, RIEGL 社의 VUX-18024 제품은 65 W, TELEDYNE OPTECH 社의 CL-360XR 제품은 35 W 이상인 반면, 본 연구에서 개발된 LiDAR는 30 W 미만으로, 상대적으로 전력 소모량이 낮은 것을 알 수 있다.

2.6.4 기타 특성

본 연구에서 개발된 LiDAR는 Low-SWaP 구현을 위해 소형 Galvanomirror scanner를 활용하였다. 최대 스캔 각도는 5° 수준으로, 이는 rotating polygon mirror 기반 LiDAR와 비교하면 매우 좁은 수치이다.
라인 스캔 속도는 100 lines/s이며, 이는 상용 LiDAR 의 스캔 속도(최대 측정 거리 조건) 대비 두 배 높은 수치이다. 더불어 Fig. 4에 나타난 whisk broom scan에서 왕복 스캔을 모두 활용한다면 200 lines/s까지 스캔 속도를 증가시킬 수 있다.
제작된 LiDAR의 빔 발산각은 0.4 mrad으로, 이는 상용 LiDAR의 수치(0.3, 0.4 mrad)와 유사한 수준이다.

실험 결과

3.1 실험 준비

지면 매핑 시험을 위해 헥사콥터 드론이 이용되었다. 사용된 헥사콥터 드론의 제원은 아래와 같다.
Table 6.
Hexa-copter drone specifications
Item Specifications
Model KPRO-XEON-RESCUER
Size 1430 × 1430 × 530 mm
Weight 14.5 kg (including battery)
Payload 5 kg
Flight time Max. 20 min (@ 5 kg payload)
Battery capacity 22,000 mAh × 2
Fig. 7은 개발된 LiDAR의 헥사콥터 드론 장착 형상을 나타내고 있다. LiDAR는 헥사콥터 드론의 배면에 장착되며, 고무 댐퍼를 통해 드론-LiDAR 간의 저주파 진동 전달을 차단하였다. Fig. 7에서 드론은 -X 방향으로 진행하며, 스캔 방향은 roll에 대응한다.
Fig. 7.
Schematic diagram of hexa-copter-mounted LiDAR system
KIMST-2025-28-6-604f7.jpg
Table 7은 2024년 11월 15일 오전 11시부터 12시까지 독립기념관(천안시 동남구 목천읍) 일대에서 수행된 지면 매핑 시험에서 비행 조건, 평균적인 환경 매개변수, 스캐닝 조건을 요약한 표이다. 이는 실험 당시의 드론 운용 특성과 대기 조건을 포함한다. 계산에 따르면 θskew = 0.114°, RL = 0.044 m로 확인되었으며, 이에 따라 RTRD로 근사할 수 있다.
Table 7.
UAV LiDAR operation condition
Item Values
Wind speed 0.9 m/s
Temperature 15.8 ℃
시정거리 12.3 km
UAV altitude, H 200 m
UAV flight velocity, vUAV 7 m/s
Scan angle, θscan
Scan rate, fscan 80 Hz
Pulse repetition rate, fPRR 100 kHz
# pulse per scan, NPPS 625

3.2 실험 절차

Table 8은 헥사콥터 장착을 통한 LiDAR 운용 시험 절차를 보여준다.
Table 8.
Experiment procedure
Steps Procedure
I Ardupilot 프로그램을 통해 스캔 영역 설정 후 자동 비행경로 생성
II 드론의 IMU의 static alignment 수행 후 수직 이륙 및 스캔 고도로 상승
III 고도 도달 후 5 m/s 이상의 전진 비행 및 원형 궤적 비행을 통해 IMU 동적 보정
IV 영역 스캔 완료 후 RTH(Return to Home)하며 수직 착륙
V SBC에서 INS 원시 데이터와 PCD(Point Cloud Data) 획득
VI 지상국의 RINEX 파일을 이용하여 드론의 INS 원시 데이터 PPK 후처리 보정
VII 보정된 드론 INS 데이터와 PCD 데이터를 결합하여 최종 지면 매핑 지도 생성

3.3 실험 결과

Fig. 8은 2024년 11월 15일 오전 11시부터 12시까지 독립기념관(천안시 동남구 목천읍) 일대에서 수행된 지면 매핑 시험에서 실제 측정이 이루어진 지역의 위성사진과 strip pattern을 보여준다. Fig. 8(a)에 나타난 바와 같이 측정은 두 지역으로 나뉘어 진행되었으며, 측정 지역(Area 1, 2)은 각각 572.1×257.7 m2, 456×252.6 m2이다. 운용 고도에 맞추어 스트립 간격은 12-15 m 수준으로 설정되었다. Fig. 9는 area 1에서 측정된 point cloud image와 실
Fig. 8.
(a) Scanning area and (b) strip pattern of the experiment
KIMST-2025-28-6-604f8.jpg
Fig. 9.
(a) High-angle view point cloud image, (b) real photograph
KIMST-2025-28-6-604f9.jpg
제 사진을 나타내고 있다. 그림에 나타난 바와 같이 영상 중앙의 큰 건물(독립기념관 겨레의 집)이 두드러지게 표현되었으며, 지붕의 사면 역시 정밀하게 측정되었음을 알 수 있다.
Fig. 10(a-c)는 위성사진과 3차원 데이터, 그리고 중첩된 영상을 보여준다. 그림에서 보면 건물의 외곽과 같은 인공조형물이 전 영역에서 매우 일치함을 볼 수 있다. Fig. 10(d-f)Fig. 10(a-c) 하단의 C-47 수송기를 확대한 그림이며, C-47 수송기 폭이 약 29 m 수준임을 고려할 때, 드론 탑재 LiDAR는 매우 정밀한 3차원 영상을 제공함을 알 수 있다.
Fig. 10.
(a) Satellite image, (b) bird's-eye view point cloud image, and (c) merged image of area 1. (d) Magnified satellite image, point cloud image, and merged image of the C-47
KIMST-2025-28-6-604f10.jpg
Fig. 11은 area 2에서 획득된 LiDAR 측정 결과를 일부 나타내고 있다. 측정대상은 조형물(독립기념관 통일 염원의 동산)로, 지면 형상과 더불어 입체적인 조형물의 복잡한 형상 또한 상세히 측정되었음을 확인할 수 있다.
Fig. 11.
(a) Point cloud image and (b) photograph of statue
KIMST-2025-28-6-604f11.jpg

결 론

본 연구에서는 지면 감시를 위해 UAV 플랫폼을 통해 운용 가능한 LiDAR 시스템을 제안하였다. 제안하는 LiDAR 시스템은 눈 안전 파장대역(1550 nm)에서 동작하는 InGaAs 기반 Geiger mode SSPM을 기반으로 제작되었으며, 500 m 상공에서 UAV의 진행 방향에 수직으로 5°의 스캔 각도와 0.01°의 스캔 간격을 가지도록 설계되었다. 특히, 3단 구조의 TEC(Thermo-Electric Cooler)와 SSPM을 함께 패키징 함으로써 복잡한 외부 냉각 시스템 없이 −40 ℃의 운용 온도 유지가 가능도록 제작되었으며, 이로 인해 2 kg 미만의 소형 LiDAR 구현이 가능하였다[26].
성능 확인을 위해 제작된 LiDAR 시스템은 200 m 고도에서 운용되는 헥사콥터 드론에 장착되어 지면 매핑 시험을 진행하였으며, 해당 시험을 통해 건축물, 식생을 비롯하여 기념탑, 항공기와 같은 복잡한 구조물까지도 정밀 측정이 가능함을 확인하였다.
본 연구에서 개발된 LiDAR는 소화기로부터의 위협을 최소화하기 위해 500 m 이상의 고도에서 운용되도록 설계되었으나, 헥사콥터 드론의 운용 고도 제한으로 인해 부득이하게 200 m 고도에서 시험이 이루어졌다. 하지만 photon budget 계산 결과와 선행 연구 결과에 따르면 제작된 LiDAR는 기계획된 운용환경인 500 m 의 두 배에 해당하는 1 km 거리에서도 충분히 운용이 가능할 것임을 시사한다. 이는 즉, 전술적 은밀성이 요구되는 임무에서도 제작된 LiDAR가 효과적으로 활용될 수 있음을 의미한다[26]. 나아가 제안된 LiDAR의 고정밀 특성을 극대화함으로써 지면 감시뿐만이 아닌 초소형 드론 탐지와 같은 차세대 전장을 위한 탐지 센서로의 활용 또한 기대할 수 있을 것으로 보인다.

후 기

이 논문은 2024년 정부의 재원으로 수행된 연구 결과임.

REFERENCES

[1] A. O. Agbeyangi, J. O. Odiete and A. B. Olorunlomerue, "Review on UAVs used for Aerial Surveillance," J. Multidiscip. Eng. Sci. Technol., Vol. 3, No. 10, pp. 5713–5719, 2016.

[2] H. Finneral, "Terrain Commander: a next generation remote surveillance system," Proc. SPIE, Vol. 5090, pp. 415–423, 2003.
crossref
[3] S. Ibrahim, "A comprehensive review on intelligent surveillance systems," Commun. Sci. Technol., Vol. 1, No. 1, pp. 1–7, 2016.

[4] V. P. Riabukha, "Radar Surveillance of Unmanned Aerial Vehicles(Review)," Radioelectron. Commun. Syst., Vol. 63, No. 11, pp. 561–573, 2020.
crossref pdf
[5] R. McDaniel, R. Hughes and E. Seibel, "EO/IR Sensors for Border Security Applications," Proc. SPIE, Vol. 6203, pp. 16–23, 2006.
crossref
[6] P. W. T. Yuen and M. Richardson, "An introduction to hyperspectral imaging and its application for security, surveillance and target acquisition," Imaging Sci. J., Vol. 58, No. 5, pp. 241–253, 2010.
crossref
[7] B. Lhani, S. Chacko, S. Ghosh and S. Sasldharan, "Surveillance system based on Flash LiDAR," in Proc. XXXII INCA Int. Congr. Cartography for Sustainable Earth Resource Management, Indian Cartographer, Vol. 32, pp. 77–85, 2013.

[8] P. Sudhakar, K. A. Sheela and M. Satyanarayana, "Imaging LiDAR System for Night Vision and Surveillance Applications," in Proc. 4th Int. Conf. Advanced Computing and Communication Systems, 2017.
crossref
[9] Y. C. Rao, L. S. Rao, G. R. Chandra and M. Satyanarayana, "Design a long-range near infrared LiDAR imaging system for security and surveillance applications," J. Opt., pp. 1–10, 2024.
crossref pdf
[10] B. I. Bakare, M. U. Ajaegbu and V. E. Idigo, "A Comprehensive Review of Radar System Technology," J. Electron. Commun. Eng. Res., Vol. 8, No. 8, pp. 16–23, 2022.

[11] G. Gennarelli, F. Soldovieri and N. Amin, "Radar for indoor surveillance: state of the art and perspectives," Multimodal Sensing: Technol. Appl., Vol. 11059, No. 1105903, pp. 1–10, 2019.

[12] A. Moreira, P. Prats-Iraola, M. Younis, G. Krieger, I. Hajnsek and K. P. Papathanassiou, "A Tutorial on Synthetic Aperture Radar," IEEE Geosci. Remote Sens. Mag., Vol. 1, No. 1, pp. 6–43, 2013.
crossref
[13] M. A. Herman and T. Strohmer, "High-Resolution Radar via Compressed Sensing," IEEE Trans. Signal Process., Vol. 57, No. 6, pp. 2275–2284, 2009.
crossref
[14] X. Chen, Z. Dong, Z. Zhang, C. Tu, T. Yi and Z. He, "Very High Resolution Synthetic Aperture Radar Systems and Imaging: A Review," IEEE J. Sel. Top. Appl. Earth Obs. Remote Sens., Vol. 17, pp. 7104–7123, 2024.
crossref
[15] P. K. Hughes, "A High-Resolution Radar Detection Strategy," IEEE Trans. Aerosp. Electron. Syst., Vol. 5, pp. 663–667, 2007.
crossref
[16] G. M. Koretsky, J. F. Nicoll and M. S. Taylor, "A Tutorial on Electro-Optical/Infrared(EO/IR) Theory and Systems," Inst. Defense Anal., pp. 15–19, 2013.

[17] C. R. Valenta and Z. J. Silva, "Towards Single Aperture RF/EO/IR Systems: Multi-Spectral Sensing and Communication," in Laser Radar Technol. Appl. XXV, Vol. 11410, pp. 68–82, 2020.

[18] E. Puckrin, C. S. Turcotte, M.-A. Gagnon, J. Bastedo, V. Farley and M. Chamberland, "Airborne Infrared Hyperspectral Imager for Intelligence, Surveillance and Reconnaissance Applications," in Airborne Intell., Surveillance, Reconnaissance(ISR) Syst. Appl. IX, Vol. 8360, pp. 27–36, 2012.
crossref
[19] J. M. Bioucas-Dias, A. Plaza, G. Camps-Valls, P. Scheunders, N. M. Nasrababadi and J. Chanussot, "Hyperspectral Remote Sensing Data Analysis and Future Challenges," IEEE Geosci. Remote Sens. Mag., Vol. 1, No. 2, pp. 6–36, 2013.
crossref
[20] A. Plaza, J. A. Benediktsson, J. W. Boardman, J. Brazile, K. Bruzzone, G. Camps-Valls, J. Chanussot, M. Fauvel, P. Gamba, A. Gualtieri, M. Marconcini, J. C. Tiltron and G. Trianni, "Recent advances in techniques for hyperspectral image processing," Remote Sens. Environ., Vol. 113, pp. S110–S122, 2009.
crossref
[21] D. L. Harris, J. M. Webster, A. Vila-Concejo, S. Duce, J. X. Leon and J. Hacker, "Defining multiscale surface roughness of a coral reef using a high-resolution LiDAR digital elevation model," Geomorphology, Vol. 439, p. 108852, 2023.
crossref
[22] A. F. Jones, P. A. Brewer, E. Johnstone and M. G. Macklin, "High-resolution interpretative geomorphological mapping of river valley environments using airborne LiDAR data," Earth Surf. Process. Landforms, Vol. 32, pp. 1574–1592, 2007.
crossref
[23] W. C. Haneberg, W. F. Cole and G. Kasali, "High-resolution lidar-based landslide hazard mapping and modeling, UCSF Parnassus Campus, San Francisco, USA," Bull. Eng. Geol. Environ., Vol. 68, pp. 263–276, 2009.
crossref pdf
[24] A. McCarthy, G. G. Taylor, J. Garcia-Armenta, B. Korzh, D. V. Morozov, A. D. Beyer, R. M. Briggs, J. P. Allmaras, B. Bumble, M. Colangelo, D. Zhu, K. K. Berggeren, M. D. Shaw, R. H. Hadfield and G. S. Buller, "High-resolution long-distance depth imaging LiDAR with ultra-low timing jitter superconducting nanowire single-photon detectors," Optica, Vol. 12, No. 2, pp. 168–177, 2025.
crossref pdf
[25] G. Shen, T. Zheng, Z. Li, E. Wu, L. Yang, Y. Tao, C. Wang and G. Wu, "High-speed airborne single-photon LiDAR with GHz-gated single-photon detector at 1550 nm," Opt. Laser Technol., Vol. 141, p. 107109, 2020.
crossref
[26] H. Song, H. Jang, H. Jang and T. Yoon, "Design and Implementation of Eye-Safe Band LiDAR System Based on Solid-State Photomultiplier for Kilometer-Range Applications," IEEE Trans. Instrum. Meas., Vol. 74, p. 4512109, 2025.
crossref
[27] B. Hofle and N. Pfeifer, "Correction of laser scanning intensity data: Data and model-driven approaches," ISPRS J. Photogramm. Remote Sens., Vol. 62, pp. 415–433, 2007.
crossref
[28] W. Y. Yan and A. Shaker, "Radiometric Calibration of Airborn LiDAR Intensity Data for Land Cover Classification," "Canadian Geomatics Conf. and Symp. Commission I," ISPRS, 2010.

[29] X. Li and Y. Liang, "Remote measurement of surface roughness, surface reflectance, and body reflectance with LiDAR," Appl. Opt., Vol. 54, No. 30, pp. 8904–8912, 2015.
crossref pmid
[30] J.-S. Yoon, J.-I. Shin and K.-S. Lee, "Land Cover characteristics of Airborne LiDAR Intensity Data: A Case Study," IEEE Geosci. Remote Sens. Lett., Vol. 5, No. 4, pp. 801–805, 2008.
crossref
[31] E. D. Kaplan and C. J. Hegarty, "Understanding GPS: Principles and Applications," Boston, MA, USA, Artech House, 2006. ch. 9.

[32] J. Skaloud and D. Lichti, "Rigorous Approach to Bore-Sight Self-Calibration in Airborne Laser Scanning," ISPRS J. Photogramm. Remote Sens., Vol. 61, No. 1, pp. 47–59, 2006.
crossref
[33] Inertial Labs, "What positioning technology is right for your UAV: GCPs, GNSS, PPK, or RTK?," Inertial Labs, Nov. 14, 2024;[Online]. Available:. https://inertiallabs.com/what-positioning-technology-is-right-for-your-uav-gcps-gnss-ppk-or-rtk/. [Accessed: Feb. 17, 2025].

[34] Pix4D, "RTK vs PPK drones vs GCPs: Which provides better results?," Pix4D, Jan. 31, 2022;[Online]. Available:. https://www.pix4d.com/blog/rtk-ppk-drones-gcp-comparison/.[Accessed: Feb. 17, 2025].

[35] P. Groves, "Principles of GNSS, Inertial, and Multisensor Integrated Navigation Systems," 2nd ed.Boston, MA, USA, Artech House, 2013. chs. 10, 14.

[36] A. Habib, K. I. Bang, A. P. Kersting and J. Chow, "Alternative Methodologies for LiDAR System Calibration," Remote Sens., Vol. 2, No. 3, pp. 874–907, 2010.
crossref


ABOUT
ARTICLE CATEGORY

Browse all articles >

BROWSE ARTICLES
FOR CONTRIBUTORS
Editorial Office
160 Bugyuseong-daero 488beon-gil, Yuseong-gu, Daejeon 34060, Korea
Tel: +82-42-823-4603    Fax: +82-42-823-4605    E-mail: kimst@kimst.or.kr                

Copyright © 2026 by The Korea Institute of Military Science and Technology.

Developed in M2PI

Close layer
prev next