J. KIMS Technol Search

CLOSE


J. KIMS Technol > Volume 28(3); 2025 > Article
임무통제 기반 다중 무인 지상 로봇 자율주행 시스템

Abstract

The importance of research on unmanned systems has grown considerably with advancements in science and technology and the need to minimize human casualties. Among these systems, autonomous driving technology for unmanned ground vehicles(UGVs) has garnered significant attention due to its high usability and scalability. Autonomous driving systems for UGVs must be capable of executing complex military operations and adapting flexibly to unpredictable environments. To address these challenges, we propose a mission control-based autonomous driving system for multiple unmanned ground robots. This system comprises three core functions: perception, decision-making, and control, which are integrated to enhance overall performance. To validate the proposed system, we conducted simulations and indoor experiments, with results demonstrating its effectiveness.

서 론

과학 기술의 급속한 발전과 운용인력 절감 및 고위험 시나리오에서 인명피해를 최소화하기 위해 무인체계에 대한 연구 중요성이 강조되고 있다[1]. 특히 지상전의 경우, 가장 많은 인명피해가 발생한다는 점으로 적용 시 그 효과에 대한 기대가 높아지고 있다. 무인 지상 로봇(Unmanned Ground Vehicle, UGV)은 복잡하거나 위험도가 높은 지역에서도 사용할 수 있으며, 전투, 정찰, 감시, 폭발물 제거와 같은 다양한 임무에 적용되고 있다. 이러한 높은 활용성으로 관련 연구 및 개발이 증가하고 있으며, 그 중, 자율주행 기술은 복잡한 임무를 자율적이거나 사람의 적은 개입으로 수행할 수 있는 능력으로 인해 핵심적인 연구로 주목받고 있다[2,3].
자율주행 시스템은 일반적으로 인지, 판단, 제어로 구분된다. 인지는 각종 센서 데이터를 기반으로 주변 환경을 실시간으로 인식하는 기술이다. 판단은 인식된 환경 정보를 기반으로 목표 위치까지 충돌을 방지하는 최단 경로를 생성하거나, 상황을 판단하고 이에 맞는 로봇의 동작을 결정하는 기술이다. 제어는 생성된 경로 추종을 위한 제어입력을 생성하는 기술로 로봇이 안정적으로 주행할 수 있도록 한다.
군사 작전이 수행되는 환경은 도심에서 야지 및 험지까지 다양하며, 예측 불가능한 위험 상황이 발생할 수 있다. 때문에, 자율주행 시스템은 해당 상황에 대한 높은 이해도와 빠른 판단 능력이 필수적이다. 또한, 현대 군사 작전의 복잡성으로 단일 로봇이 아닌 다중 로봇을 사용하는 경우가 많다. 따라서, 다중 로봇의 운영을 관리하고 상황에 대한 빠른 판단을 통해 로봇에게 임무를 할당하거나 통제하는 기능은 작전 수행 성공률을 향상시킬 수 있다.
본 논문에서는 임무 통제기반의 다중 무인 지상 로봇 자율주행 시스템을 제안한다. 군사 작전에서 결정은 생사와 승패를 결정짓는 중요한 요소 중 하나이다. 따라서 본 연구는 운용자의 입력에 의존하며 개별 로봇이 할당된 임무를 자율적으로 수행하는 반 자율화(Semi-Autonomous)를 목적으로 설계되었다. 임무 통제 소프트웨어는 기존의 유인체계에서의 지휘소와 유사하게 기능하며 각 로봇의 임무를 계획하고 관리하도록 설계되었다. 지상 로봇은 임무 통제 소프트웨어로부터 임무에 대한 정보를 수신받아 자율주행을 수행하도록 설계되었다. 로봇은 주행 중 자신의 상태 정보를 임무 통제 소프트웨어로 송신하며, 상황에 따라 변화하는 임무를 수행한다. 위에서 언급한 것과 같이, 본 연구에서 구축한 자율주행 시스템은 인지, 판단, 제어로 구성된다. 인지부에서는 LiDAR와 Camera를 통해 로봇 주변의 주행 가능 지도를 만들고, 판단부로 전달한다. 판단부에서는 임무 통제 소프트웨어에서 전달받은 광역 경로점과 주행 가능 지도를 기반으로 로봇이 추종해야 할 지역 경로를 생성한다. 본 연구에서는 잘 알려진 dynamic window approach(DWA)[8]를 활용한다. 제어부에서는 생성된 지역 경로를 추종하기 위해 제어 명령을 생성하고 제어를 수행한다.
본 논문의 구성은 다음과 같다. 2장에서는 개발하고자 하는 전체 시스템의 개념 및 구성을 서술한다. 3장에서는 임무 통제 소프트웨어를 서술하며, 4장에서는 무인 지상 로봇의 자율주행 시스템을 서술한다. 5장에서는 실내 실험을 수행하고 그 결과를 분석한다. 마지막으로 6장에서 연구 결론을 서술한다.

임무 통제기반 자율주행 시스템

본 연구에서 개발하고자 하는 임무 통제기반 자율주행 시스템은 임무 통제 소프트웨어와 지상 로봇 시스템으로 구성된다. 전체적인 개념도는 Fig. 1과 같다.
Fig. 1.
Mission control-based autonomous driving system diagram
KIMST-28-3-294f1.jpg
Fig. 1에서 보듯이 임무 통제 소프트웨어는 기존 유인체계의 지휘소와 유사하게 기능한다. 개별 로봇에 대해 상황을 지속적으로 보고 받으며 임무를 관리할 뿐만 아니라, 임무에 적합한 광역 경로점을 생성하고 지상 로봇으로 전달한다.
한편, 지상 로봇 시스템은 임무 통제 소프트웨어로부터 전달받은 임무를 수행한다. 전달받는 임무는 시작 및 정지 등의 모드 정보 및 주행해야 할 광역 경로점으로 구성된다. 지상 로봇은 주어진 임무를 수행하기 위한 자율주행 소프트웨어를 포함한다.

임무 통제 소프트웨어

임무 통제 소프트웨어는 기존 유인체계의 지휘소와 유사하게 기능한다. 개별 로봇에 대해 상황을 지속적으로 보고 받으며 임무를 관리한다.
변화하는 상황에 대응하여 올바른 판단을 내리기 위해서는 실시간으로 개별 로봇들에 대한 정보를 수신받으며, 이를 운용자가 확인할 수 있어야 한다. Fig. 2는 로봇의 상태 정보를 전시한 결과다. 로봇의 타입, 운용모드, 제어권, 연료량/배터리, 진행 방향, 좌표 정보를 확인할 수 있다. 이 중, 제어권은 운용자의 판단에 의한 로봇의 이동 통제 가능 여부에 대한 정보이다. 확보 상태인 경우, 이동 및 정지 명령을 로봇에게 송신한다.
Fig. 2.
Display of robot status
KIMST-28-3-294f2.jpg
Fig. 3은 로봇에 달린 감시카메라로부터 송신된 실시간 이미지와 4장에서 서술할 ‘객체 인식’ 기능을 통해 송신된 위험 객체 정보가 전시된 결과이다. 해당 전시 기능을 통해 운용자는 위험 상황을 인지하고 운용되고 있는 로봇들에 대한 자원 정보를 기반으로 교전 및 회피 등을 선택할 수 있다.
Fig. 3.
Display of object detection result
KIMST-28-3-294f3.jpg
임무 통제 소프트웨어는 각 로봇이 부여받은 임무에 대한 광역 경로계획을 수행한다. 광역 경로계획은 확보된 전역 지도를 기반으로 출발점에서 목표점까지 주행 가능한 영역 상의 최단 거리 경로를 계획하는 기술이다. 본 연구에서는 A* 알고리즘[4]을 사용하여 광역 경로를 생성하였으며, 위험 상황 발생에 의한 경로 재계획 과정을 고려하기 때문에 출발점은 로봇의 위치로 설정된다. Fig. 4는 임무 통제 소프트웨어로 도출된 광역 경로 예시 결과로, 빨간색 점들이 생성된 광역 경로를 의미한다.
Fig. 4.
Global path result
KIMST-28-3-294f4.jpg

무인 지상 로봇 자율주행 시스템

본 장에서는 무인 지상 로봇의 자율주행 시스템을 서술한다. 자율주행 시스템은 인지, 판단, 제어로 구분되어 개발된 후 이를 통합하는 형태로 구축된다.

4.1 인지

본 절에서는 라이다(LiDAR) 센서 기반의 장애물 지도, 카메라(Camera) 센서 기반의 지형 지도와 객체 인식 기능에 대해 서술한다.

4.1.1 장애물 지도

무인 로봇은 임무 수행 중 다양한 장애물을 마주하게 되며, 본 시스템에서는 OctoMap 라이브러리[5]를 사용한 장애물 지도를 생성하여 이를 인식한다. 장애물 지도 생성과정은 다음과 같다. 라이다 센서에서 수신되는 pointcloud 데이터는 계산 부하 감소를 위해 로봇의 위치를 기준으로 설정된 ROI(Region of Interest)만큼 필터링 되어 재발행된다. 필터링 된 pointcloud 데이터는 OctoMap 라이브러리에 입력되어 사전에 설정된 해상도 등의 설정값에 맞춘 2차원 점유 격자 지도(2D Occupancy Grid Map)를 생성한다. 각 grid는 주행 불가(occupied), 주행 가능(free), 미탐지(unknown)의 3가지 상태로 표현된다. 최종적으로 Fig. 5와 같이 생성된 2차원 점유 격자 지도는 발행주기에 맞춰 지속적으로 초기화되어 실시간성이 확보된다.
Fig. 5.
Obstacle map result
KIMST-28-3-294f5.jpg

4.1.2 주행가능 지형 지도

군사 작전이 수행되는 환경은 도시에서 야지까지 다양하며 예측 불가능할 수 있다. 이러한 환경에서 무인 로봇은 도로, 비포장도로, 산지, 물과 같은 지형 중 주행 가능한 지형을 식별할 수 있어야 한다. 본 시스템에서는 OpenCV[6] 라이브러리를 사용하여 이를 식별하며, IPM(Inverse Perspective Mapping)기법을 사용한 주행가능 지형 지도를 생성한다. IPM 기법은 카메라 센서에 투영된 이미지 데이터를 조감도의 형태로 변환하는 기법으로, 일반적인 이미지 데이터의 투영과정에서 발생하는 원근감에 의한 왜곡을 제거한다.
지도의 생성과정은 다음과 같다. 카메라 센서로부터 입력된 이미지 데이터는 OpenCV 라이브러리를 사용하여 주행 가능 영역에 대한 이진화 작업을 진행한다.
이진화된 이미지 데이터의 각 픽셀 좌표 [u,v]T는 하기와 같은 좌표변환 계산을 통해 사전에 정의된 실제 공간 범위 및 해상도에 맞춰 공간 좌표 [X,Y]T와 대응된다. 하기의 식에서 사용되는 카메라 내부 및 외부 파라미터는 사전의 캘리브레이션 및 측정을 통해 도출된다.
(1)
[uv1]=[fx0cx0fycy001][r11r12r13r21r22r23r31r32r33t3][XY01].
해당 공간 좌표와 대응된 픽셀 좌표의 이진화 값에 따라 주행 가능 지형을 판별하고, 최종적으로 판별된 정보들은 Fig. 6과 같이 점유 격자 지도(2D Occupancy Grid Map)형태로 생성된다.
Fig. 6.
Traversability map result
KIMST-28-3-294f6.jpg

4.1.3 객체 인식

적과 아군의 객체를 식별하고, 위험에 대응하기 위해서는 객체 인식 기술이 필요하다. 객체 인식 기술은 이미지상에서 객체를 분류하고 픽셀 위치 특정이 가능하다. 다양한 딥러닝 및 머신 러닝 알고리즘이 개발되었으며, 본 시스템에서는 딥러닝 기반의 YOLOv5 (You Only Look Once version 5)[7]를 사용한다.
YOLOv5는 실시간성과 정확성으로 다수의 연구 분야에서 사용되고 있는 객체 인식 알고리즘이다. 카메라 센서로부터 입력된 이미지 데이터는 사전에 학습된 모델을 기반으로 특징을 추출하여 객체를 인식한다. 객체가 인식되었을 시, 객체 유형과 픽셀 좌표가 bounding box 형태로 도출된다.

4.2 판단

본 절에서는 지역 경로계획과 전반적인 정보 관리 및 의사 결정을 수행하는 자율 매니저를 서술한다.

4.2.1 지역 경로계획

DWA(Dynamic Window Approach)[8]는 주변 환경 및 로봇의 제약조건을 고려한 후보 경로를 생성하고, 비용함수를 통한 경로 평가를 통해 최적의 경로를 도출하는 기법으로 적은 연산량으로 실시간성을 보장한다.
해당 알고리즘은 하기와 같이 사전에 정의된 선속도(v)와 각속도(w)의 범위에 따른 window 내의 속도 쌍을 생성한다.
(2)
Vs={(v,ω)v[vmin,vmin+vres,,vmaxvres,vmax]ω[ωmin,ωmin+ωres,,ωmaxωres,ωmax]}.
여기서, vmin, vmax는 로봇의 최소, 최대 속도, wmin, wmax는 로봇의 최소, 최대 각속도, vres, wres는 속도 및 각속도 쌍 생성을 위한 증분량을 의미한다. 이와 같은 속도 및 각속도 쌍을 기반으로 후보 경로를 생성하고, 하기와 같은 비용함수를 통해 최소의 비용을 갖는 경로를 최적 경로로 선택한다.
(3)
J=whHc+wvVc+woOc+wiIc.
여기서, wh, wv, w0, wi는 가중치를 의미하여, HcVc, Oc, Ic는 다음과 같다.
(4)
Hc=|ψd,NψN|,
(5)
Vc=1vvmax,
(6)
Oc=i=0N{1(if obstacle exist)0(else),
(7)
Ic=i=0N{1(else)0(if drivable)
식 (4)는 추종해야 할 광역 경로와의 각도 오차에 대한 비용으로 각도 오차가 클수록 높은 비용으로 평가된다. N은 후보 경로의 길이를 의미하며, ψd,N는 추종점과 후보 경로의 끝점 사이의 각도를 의미한다. 최대 속도로 주행하기 위한 비용은 식 (5)로 구성된다. 식 (6)은 장애물 지도 정보를 기반으로, 식 (7)는 지형 지도 정보를 기반으로 비용을 계산한다.

4.2.2 자율 매니저

무인 로봇이 주어진 임무를 체계적으로 수행하기 위해서는 정보를 관리하고 전반적인 정보를 기반으로 판단할 수 있는 자율 매니저의 존재가 필요하다. 자율 매니저가 수행해야 할 기능은 크게 정보 관리와 판단으로 구분되며, 정보 관리의 경우 세부적으로 ‘상태 정보 생성’, ‘목표 속도 및 헤딩각 명령 생성’, ‘명령 수행’으로 구분된다.
‘상태 정보 생성’ 기능은 각 센서로 도출되는 로봇의 위치, 자세, 속도, 배터리 잔량 및 운용 모드 정보들을 하나의 메시지로 통합하여 정보 관리의 효율성을 향상시킨다. 통합된 상태 정보는 각 컴포넌트 및 임무 통제 소프트웨어로 송신된다.
‘목표 속도 및 헤딩각 명령 생성’ 기능은 무인 로봇의 경로 추종을 위한 목표 속도 및 헤딩각 명령을 계산하는 기능이다. 종방향 속도의 경우, 선두 로봇은 사전에 설정된 고정 속도(vconst)를, 후미 로봇은 선두 로봇을 추종하는 속도로 설정된다. 추종 속도는 CSP (Constant spacing policy) 기법으로 하기의 수식과 같이 선두 로봇과의 적정 거리를 유지하도록 생성된다.
(8)
δ=Ldd,
(9)
δ˙=vfollowervleader,
(10)
v˙follower=KpδKvδ˙,
(11)
vfollower(k+1)=vfollower(k)+v˙follower(k)dt.
식 (8)의 d는 현재 로봇 사이의 거리, Ld는 목표 유지 거리를 의미한다. 식 (10) Kp, Kv는 양의 이득값이며, 식 (11)의 계산으로 추종 속도가 생성된다.
경로점을 추종하기 위하여 하기와 같은 목표 헤딩각을 생성한다.
(12)
ψd=tan1(ydyxdx).
여기서, [xd,yd]T는 앞서 생성된 지역 경로 중 하나의 경로점을 의미한다. 한편, 지역 경로는 환경 인식결과에 따라 결정되기 때문에 채터링 하는 결과가 생성될 수 있다. 이를 제거하기 위해 하기와 같이 필터링을 수행한다.
(13)
ψ¯d(k)=(1α)ψ¯d(k1)+αψd(k).
1차 저주파 필터는 이전 명령과의 변화비를 계산하여 출력의 급격한 변화를 완화해 부드러운 명령을 생성한다. α는 0과 1사이의 파라미터값으로, α가 커질수록 부드러운 명령이 생성된다. 최종적으로, 속도 명령(Vcmd)와 헤딩각 명령(ψcmd)는 하기의 수식과 같이 설정되어 제어 기능으로 전달된다.
(14)
Vcmd={vconst(if leader)vfollower(else),ψcmd=ψ¯d.
‘명령 수행’ 기능은 임무 통제 소프트웨어로부터 수신받은 이동 및 정지 명령을 수행하는 기능이다. 이동 명령을 수신받았을 경우, ‘속도 및 헤딩각 명령 생성’ 기능을 통해 주행을 지속한다. 정지 명령을 수신받았을 경우, 속도 및 헤딩각 명령을 0으로 생성하여 정지 상태를 유지하도록 한다.
자율 매니저의 판단 흐름은 다음과 같다. 수신된 데이터를 확인하여 운용 가능 상태를 판단한다. 운용이 가능할 경우, 자신이 선두 로봇임을 판단하고 이동 명령을 수신받으면 이에 따른 동작을 수행한다. 주행 중 객체 인식 기능을 통해 위험 객체가 인지되었을 경우, 임무 통제 소프트웨어에서 송신되는 임무를 수행하고 이를 완료하였음을 판단한다.

4.3 제어

로봇의 제어는 목표 속도 및 헤딩각을 정밀하게 추종하여 주행 안정성을 확보하기 위해 수행된다. 본 연구에서 활용된 로봇 플랫폼의 경우, 속도 및 헤딩각 제어는 모터 제어기를 통해 이루어진다. 따라서, 본 연구의 제어는 모터 제어기에 전달되어야 하는 속도 및 각속도 명령 생성을 목적으로 한다.
속도 명령의 경우, 앞 절에서 설명한 목표 속도를 활용하고, 각속도 명령의 경우, 다음과 같은 수식을 통해 생성된다.
(15)
ωcmd=Kpψe+Ki0tψedt.
여기서, ψe = ψcmd - ψ, Kp, Ki 는 양의 제어 이득을 의미한다.

4.4 SW 통합

전체 기능은 ROS(Robot Operating System)[9]를 기반으로 통합된다. 개별 기능은 ROS 노드 단위로 구성하여 각 노드 간 원활한 데이터 통신을 보장하고 인터페이스의 구축 및 관리를 용이하게 한다. 각 기능 별 데이터는 기 정의된 ROS Message 및 Service를 사용하거나 새롭게 정의하여 사용한다. 통합된 전체 SW의 개략도는 Fig. 7과 같다. 이 중, Perception의 경우 하나의 노드를 의미하는 것이 아닌, 그림의 가시성을 위해 3개의 노드(장애물 지도, 주행 가능 지형 지도, 객체 인식)를 통합하여 나타낸 것이다. 이러한 ROS 기반의 통합 구조는 시스템의 확장성을 높이며, 각 기능의 정보 관리 편의성을 높인다.
Fig. 7.
Autonomous driving system diagram
KIMST-28-3-294f7.jpg

실내 실험

본 장에서는 제안하는 시스템의 타당성 검증을 위해 실내 실험을 진행하고 그 결과를 분석한다.

5.1 실험 구성

5.1.1 환경 및 로봇

검증이 수행된 실내 환경은 20×20 m 크기의 광역면적과 포장도로, 비포장도로, 산지, 물의 지형 정보로 구성되었다. 건물, 차량, 교량 등의 다양한 구조물이 배치되었으며, 1.5×1.0×0.5 m 크기의 전차 모형이 배치되었다. 실험동 내부에는 약 43개의 모션캡쳐 장비(PrimeX 41)[10]가 설치되어 로봇의 실시간 위치를 측정하고, 이를 로봇으로 수신한다. 사용된 로봇 모델은 Rover Robotics 사의 Rover Pro[11] 모델 4대를 사용하였다. Fig. 8과 같이 바퀴형 모델 4WD Rover Pro 2대와 궤도형 모델 Flipper Rover Pro 2대로 구성되었다. 각 로봇은 온보드 PC와 Lidar, Camera, Imu 센서가 부착되었으며, 세부 하드웨어 사양은 Table 1과 같다.
Fig. 8.
Rover pro model
KIMST-28-3-294f8.jpg
Table 1.
Specification of hardware
Type Description Value
Rover Pro Dimensions 620 × 390 × 254 mm
Weight 11 kg
Max speed 2.5 m/s
Operation Time 1-2 hours drive time 5 hours idle
Onboard PC NUC11PHKi7 CPU: I7-1165G7 RAM: 64GB
Jatson AGX Orin Dev Kit CPU: 12-core Arm cortex-A78AE RAM: 64GB
Sensors Lidar Ouster OS1-128
IMU 3DM-GX5-AHRS
Camera FLIR BFS-PGE-50S5C

5.1.2 시나리오

검증을 위한 실험 시나리오는 Fig. 9와 같다. 초기 위치의 로봇 4대는 그림 좌측 하단에서 출발하여 우측 상단의 도착점까지 이동하는 임무를 수행한다. 4대의 로봇은 초기 임무 수행 중 적 전차를 마주하고, 로봇 1번과 2번은 공격조로, 3번과 4번은 회피조로 분리되어 각각의 임무를 수행하게 된다. 공격조의 경우, 사격 거리 내의 위치로 이동하여 교전 후 도착점까지 재생성된 광역 경로를 따라 주행한다. 회피조의 경우, 후진 경로를 따라 일정 거리 후진 후, 제자리 회전을 수행하여 재생성된 광역 경로를 따라 주행하게 된다. 이때, 선두 로봇은 4번 로봇으로, 추종 로봇은 3번 로봇으로 설정된다. 회피조는 주행 중 마주하는 교량 구조물을 통과하고, 도로 내 장애물을 회피하며 도착점까지 주행한다.
Fig. 9.
Experiment scenario
KIMST-28-3-294f9.jpg

5.2 실험 결과 및 분석

Fig. 10은 전체 주행 궤적을 도시한 결과다. 모든 로봇이 주행 가능 영역 내에서 시작 위치에서 도착 위치까지 주행한 것을 확인할 수 있다. 공격조의 경우, 건물과 전차를 지나 목표점까지 주행하는 것을 확인할 수 있다. 회피조의 경우, 선두 로봇(1번 로봇)이 전차를 인지함에 따라 시나리오대로 후진, 제자리 회전, 대형 유지를 수행한 것을 확인할 수 있다. 또한, 충돌 없이 도로 내에 위치한 교량을 통과하고 차량을 회피한 것을 확인할 수 있다.
Fig. 10.
Robots driving history
KIMST-28-3-294f10.jpg
Fig. 11은 주행 중 생성된 지역 경로 결과를 보여준다. (a)는 교량 구조물 통과 시 생성된 지역 경로 결과로, 교량의 방호 울타리와 충돌하지 않는 경로를 생성하는 것을 확인할 수 있다. (b)는 도로 내 차량 장애물 회피 시 생성된 지역 경로 결과로, 장애물을 회피하는 동시에 주행 가능 영역을 벗어나지 않는 경로를 생성하는 것을 확인할 수 있다.
Fig. 11.
Local path generation results
KIMST-28-3-294f11.jpg
Fig. 12는 각 로봇의 헤딩각 명령 추종 결과이다. 전반적으로 명령을 잘 추종하며 부드럽게 이동함을 확인할 수 있다.
Fig. 12.
Heading command comparison results
KIMST-28-3-294f12.jpg
한편, Fig. 9에서 보듯이, 1번 로봇은 적 전차와 조우하게 된다. 앞장에서 설명한 적 인지 기능을 통해 적 전차를 인식하게 되고, 해당 결과를 임무 통제 소프트웨어로 전달한다. Fig. 13은 객체 인식결과를 보여준다. 이미지상의 전차 위치 및 크기에 맞게 bounding box 정보가 생성된 것을 확인할 수 있다. bounding box 상단의 ‘tank’는 인식된 객체 유형, 0.92는 인식 신뢰도 결과이다.
Fig. 13.
Object detection result in indoor experiment
KIMST-28-3-294f13.jpg

결 론

본 논문에서는 임무 통제 시스템 기반의 다중 무인 지상 로봇 자율주행 시스템을 제안하였다. 임무 통제 소프트웨어는 개별 로봇들에 대한 지속적인 정보를 수신받으며 이를 기반으로 운용자의 판단을 보조하도록 설계되었다. 판단된 선택에 따라 광역 경로계획을 수행하여 효율적인 임무 관리가 가능하게 하였다. 자율주행 시스템은 인지, 판단, 제어로 나뉘어 개발되었으며 ROS를 기반으로 통합되었다. 인지 기능은 실시간으로 주변의 장애물을 인식하는 장애물 지도, 실시간으로 주행 가능 지형을 식별하는 지형 지도, 위험 객체를 인식하는 객체 인식 정보를 생성하였다. 판단 기능은 광역 경로를 추종하며 주행 가능 영역으로 지역 경로를 생성하고, 전반적인 정보 기반의 판단으로 임무 수행을 위한 정보를 생성하였다. 제어 기능은 생성된 지역 경로를 추종하거나 임무 통제 소프트웨어로부터 수신받은 명령에 따른 제어 명령을 생성하였다.
제안한 시스템은 실내 환경에서 검증되었으며, 위험 상황 발생에 따라 4대의 로봇이 공격조와 회피조로 분리되어 임무를 수행하는 시나리오로 검증하였다. 검증 결과 모든 로봇이 해당 시나리오의 임무를 정상적으로 수행하였으며, 주행 가능 지형 내에서 마주하는 장애물을 회피하며 안정적으로 이동함을 확인할 수 있었다.

후 기

이 논문은 2024년 정부(방위사업청)의 재원으로 국방과학연구소의 지원 및 2025년도 정부(산업통상자원부)의 재원으로 한국산업기술진흥원의 지원(P0020536, 산업혁신인재성장지원사업)을 받아 수행된 연구임.

References

[1] Y. Lee, H. Kim and T. Choe, "A Misson Planning based on MTSR Model for Multiple/Heterogeneous Robots," Korean Institute of Information Scientists and Engineers, pp. 56–58, 2023.

[2] J. Lee, S. Kim and C. Lee, "The Development Trend Analysis of Autonomous Driving Technology for Unmanned Ground Combat Vehicles," Journal of the Korea Institute of Military Science and Technology, Vol. 14, No. 5, pp. 760–767, 2011.
crossref
[3] Y. Lee, H. Lee and Y. Park, "Local Path Planning Manager for Autonomous Navigation of UGV," Journal of the Korea Institute of Military Science and Technology, Vol. 13, No. 6, pp. 990–997, 2010.

[4] P. Hart, N. Nilsson and B. Raphael, "A Formal Basis for the Heuristic Determination of Minimum Cost Paths," IEEE Transactions on Systems Science and Cybernetics, Vol. 4, No. 2, pp. 100–107, 1968.
crossref
[5] A. Hornung et al, "OctoMap: An efficient probabilistic 3D mapping framework based on octree," Autonomous robots, Vol. 34, pp. 189–206, 2013.

[6] G. Bradski and K. Adrian, "Learning OpenCV: Computer vison with the OpenCV library," O'Reilly Media, Inc, 2008.

[7] Y. Zhang et al, "Real-time vehicle detection based on improved yolo v5," Sustainability, Vol. 14, No. 19, pp. 122742022.
crossref
[8] D. Fox, W. Burgard and S. Thrun, "The dynamic window approach to collision avoidance," IEEE Robotics & Automation Magazine, Vol. 4, No. 1, pp. 22–33, 1997.
crossref
[9] M. Quigley et al, "ROS: an open-source Robot Operating System," ICRA workshop on open source software, Vol. 3, No. 3.2, 2009.

[10] H. Haopeng et al, "Performance evaluation of optical motion capture sensors for assembly motion capturing," IEEE Access, Vol. 9, pp. 61444–61454, 2021.
crossref
[11] W. Minghan and V. Ialer, "Prediction energy consuption of ground robots on uneven terrains," IEEE Robotics and Automation Letters, Vol. 7, No. 1, pp. 594–601, 2022.



ABOUT
ARTICLE CATEGORY

Browse all articles >

BROWSE ARTICLES
FOR CONTRIBUTORS
Editorial Office
160 Bugyuseong-daero 488beon-gil, Yuseong-gu, Daejeon 34060, Korea
Tel: +82-42-823-4603    Fax: +82-42-823-4605    E-mail: kimst@kimst.or.kr                

Copyright © 2025 by The Korea Institute of Military Science and Technology.

Developed in M2PI

Close layer
prev next