지휘결심을 위한 자동 방책 평가

Automated Course of Action Evaluation for Military Decision-Making

Article information

J. KIMS Technol. 2024;27(4):437-445
Publication date (electronic) : 2024 August 05
doi : https://doi.org/10.9766/kimst.2024.27.4.437
1)Department of Electrical Engineering, KAIST, Korea
2)Intelligence C4I Team, HanwhaSystems, Korea
서기원1), 이형근2), 김민혁2), 김병주2), 이문현2), 백재우2), 서창호1,
1)한국과학기술원 전기및전자공학부
2)한화시스템㈜/방산 지능형지휘통제팀
*Corresponding author, E-mail: chsuh@kaist.ac.kr
Received 2024 January 4; Revised 2024 May 2; Accepted 2024 May 2.

Trans Abstract

In future complex and diverse battlefield situations, the existing command system faces the challenge of delayed human judgement of strategy and low objectivity. This paper proposes an artificial intelligence model that takes situation information and course of action simulation results as input and automatically assigns scores to various evaluation elements and a comprehensive score. This tool is expected to assist the commander in making decisions, reduce the time required for making judgments, and promote impartial decision-making.

1. 서 론

군사 작전 수행 시, 지휘관은 다양한 요소를 고려하여 최상의 전략을 구상해야만 한다. 이러한 작업 중에서도 특히 상황정보에 기반하여 방책(Course Of Action, COA)을 세우고 이를 실행하는 과정은 전략의 성패에 큰 영향을 미친다. 이러한 과정은 군사 작전의 성공을 결정하는 중요한 단계로, 지휘관들은 상황 정보와 전략적 판단을 토대로 다양한 방책들을 고려하게 된다.

구체적으로, 그동안 지휘관들은 방책을 수립하기 위해 크게 네 단계의 일련의 과정을 수행해 왔다: 1) 현재의 상황정보를 수집하고 분석한다; 2) 아군의 상태를 파악한다; 3) 상황에 맞는 여러 가지의 방책을 수립한다; 4) 방책 후보군들 중 가장 적합한 방책을 선정하고 수행한다.

방책 선정 작업의 단계 중 1, 2단계 과정은 나라별로 정해진 규정을 바탕으로 한 정량적 분석을 토대로 이뤄지기 때문에 지휘관의 주관을 배제한 객관적인 진행이 가능하다. 하지만 이후 과정들에서는 지휘관의 주관적 판단이 불가피하며 이에 따라 시간과 노력이 많이 소요된다는 문제가 발생한다.

따라서 기존의 지휘체계는 복잡하고 다양해지는 미래의 전장상황에 적용 시키기에는 한계가 존재한다. 작전 수행 도중 전술적 고려사항이 빈번하게 변동되고, 위험요소가 증가하며, 전장정보가 급격히 변화하는 상황에서는 적시에 조정된 방책을 수립하고 분석/평가하여 선택하는 능력이 요구된다. 뿐만아니라 기존의 과정은 다양한 방책들을 사람이 직접 판단하기 때문에 시간이 오래 소모된다는 단점이 있으며, 이는 실시간으로 급박하게 바뀌는 상황에서는 치명적이다[1].

이를 해결하고자 본 연구에서는 방책을 자동으로 채점하여 지휘관을 보조하는 인공지능 시스템을 제안한다. 제안된 시스템은 상황정보와 후보방책 시뮬레이션 결과를 입력으로 받아 인공지능 모델을 통해 여러 가지의 평가 요소 점수 및 종합점수를 자동으로 매겨 출력하는 시스템이다. 특정 방책에 대한 시뮬레이션 결과를 방책의 평가로도 볼 수 있으나, 해당 과정으로 나오는 결과값들(병력 손실, 장비 손실 등)으로 다양한 관점의 평가를 수행하기 어렵다. 따라서 본 연구는 해당 결과를 군사전문가들을 통해 14개의 방책평가 요소별 점수로 채점하고 이를 학습하여 점수를 추론하는 시스템을 제안한다. 이를 통해 여러 후보 방책들을 시뮬레이션한 후 시스템에 해당 결과를 입력할 경우 후보방책들이 점수 기반의 랭킹이 매겨져 지휘관에게 직관적인 의사결정을 지원 할 수 있다.

제안하는 시스템의 주요 장점은 먼저 주관적인 판단을 줄이고 객관적인 기준으로 방책을 평가할 수 있다는 점이다. 또한 다양한 방책 후보들을 빠르게 검토하고 평가할 수 있으므로 지휘관들의 결정 시간을 단축할 수 있다. 더불어 방책 후보들의 종합점수를 통해 지휘관의 의사결정을 지원하며, 이를 통해 더욱 효과적인 군사 작전 기획이 가능해진다. 이를 통해 전쟁 상황에서의 의사결정과 전략 수립을 더욱더 객관적이고 효율적으로 수행할 수 있을 전망이다.

제안하는 인공지능 모델은 멀티모달 러닝의 구조를 따라 상황정보 데이터와 방책 시뮬레이션 데이터에 대해 서로 다른 신경망을 통해 따로 학습하는 아키텍처를 따른다. 최종적으로 두 개의 결괏값을 다시 학습하여 여러 요소의 개별 점수 및 종합점수를 출력한다.

본 논문의 구성은 다음과 같다. 2장에서는 본 논문에 관련된 배경지식 및 용어에 대하여 설명한다. 3장에서는 제안하는 알고리즘의 자세한 내용에 대하여 설명한다. 4장에서는 제안하는 방법을 구현 및 실험을 통해 검증하고, 5장에서 결론을 맺는다.

Fig. 1.

A high-level workflow of recommendation system

2. 배 경

본 장에서는 연구 진행을 위한 시뮬레이션의 배경 및 세팅을 소개한다. 또한 서술한 배경하에서 사용하게 될 데이터의 구조 및 생성 방법을 설명한다.

2.1 관련 연구

여러 연구에서 국방 온톨로지를 활용한 데이터베이스 구축에 대하여 고찰하였다. 유동희(2013)[2]는 국방 온톨로지를 활용한 지능형 육군전술지휘정보체계(ATCIS)를 제안하며, 지휘 결심에 필요한 군사 지식을 제공하여 지휘관의 빠르고 정확한 의사결정을 지원하는 방법을 탐구하였다. 조은지(2022)[3]는 인공지능을 활용한 전장 상황분석 연구를 위한 모의 시나리오 기반 가설 데이터 세트 생성 방법을 제안하였으며, 이를 통해 다양한 자연어 표현의 전장 지식요소를 분석하여 인공지능 개발에 필요한 데이터 셋을 생성할 수 있음을 확인하였다. 백재욱(2022)[4]은 전투 환경 인식을 위한 데이터셋을 구축하기 위해 전장 상황을 정의하고, 장면 그래프 생성을 위한 잘 알려진 공개 데이터셋의 구조를 참고하여 AI 모델 개발을 가능케 하는 데이터 구조를 설계하였다. 최근하(2023)[5]는 방책 DB 를 활용하여 방책 지식베이스를 구축하고, 사용자의 방책 선택 요청과 상황정보에 따라 후보 방책을 선정하며, 평가하여 후보 방책을 제공하는 중대급 방책 추천 자동화 시스템을 제안하였다. DAVIS[6]는 인공지능의 활용을 군사 전술적 수준 뿐만 아니라 작전 수준에서도 활용하여야 하며 인공지능의 효율적인 작전 기능 세분화에 대하여 고찰하였다. Schubert, J.[7]는 작전 프로세스를 통해 경험적으로 수집한 데이터를 바탕으로 지휘통제시스템에서 AI가 어떻게 활용될 수 있는지를 연구하였다.

그뿐만 아니라 구축된 데이터를 기반으로 한 다양한 모델링 기법에 관한 연구가 이루어지고 있다. 한창희(2020)[8]는 인간의 의사 결심과 판단을 기계적으로 지원하는 방법을 고찰하고 의사결정 트리 방법론을 활용하여 의사 결심 지원체계의 데이터 모델링 방안을 제시하였다. 진소연(2020)[9]은 자동 생성 및 추론 기술을 활용하여 전장 지식베이스를 기반으로 복합적인 상황 판단을 지원하고, 해당 기술의 유효성을 다양한 전장 상황에서 검증하였다. 서기원(2023)[10]은 샴 네트워크 구조를 사용하여 현재 상황에 적합한 가설을 추천하는 분석결과 추천/랭킹 모델을 제안 하였다.

기존의 연구들은 지휘관의 의사결정지원에 대한 방법론이나 인공지능을 활용한 상황분석 또는 데이터셋 구축에 집중하였다. 본 연구는 군에서 사용하는 시뮬레이션과 이를 학습한 인공지능 모델을 기반으로 직접적인 방책 추천을 수행한다는 점에서 더욱더 직관적이고 명확한 의사결정 지원을 가능하게 하는 시스템을 제안한다. 또한 실제 데이터를 통해 학습과 평가를 통해 제안한 시스템의 신뢰도를 평가한다.

2.2 데이터셋 생성

본 연구에서 고려하는 입력 데이터셋은 크게 상황정보(METT-TC) 데이터와 방책 시뮬레이션 결과 데이터로 구성된다. 사용하는 데이터는 최근하(2023)[5]에 의해 설계된 방책 데이터베이스를 바탕으로 하여, 상황정보 데이터와 방책 데이터를 추출하여 군에서 사용하는 전투21 워게임 시뮬레이션을 통해 추출한다.

상황정보 데이터는 Fig. 2와 같이 고려하고 있는 전장상황에 대한 임무, 병과, 상급지휘관의도 정보를 포함한다. 각각의 데이터의 항목별로 상이하게 다른 데이터 형식으로 이루어져 있어서 이에 대한 전처리 과정이 필수적이다.

Fig. 2.

Example of input METT-TC dataset

방책 시뮬레이션 결과 데이터는 고려하고 있는 상황정보와 방책을 통해 이루어진 워게임 시뮬레이션의 출력값으로, 아 병력 손실, 아 장비 손실, 적 병력 손실, 적 장비 손실 등에 관한 총 59차원의 수치형 데이터로 이루어져 있다.

고려하고 있는 출력 데이터셋은 Table 1과 같이 평가 요소별 점수로써 공통 요소 6개 공격방책 요소 4개, 방어방책 요소 4개로 구성되어 있다. 따라서 공격방책, 방어방책 각각 10개의 요소가 점수로 출력되며 항목별로 0∼10점 사이의 점수가 부여 된다. 또한 각 평가 요소별 가중치는 0.1로 동일 하게 부여된다.

Description of dataset label

3. 모델 설명

본 장에서는 학습기반 최적방책 추천 시스템의 구조에 대하여 서술한다. 제안하는 최적 방책 추천시스템은 상황정보, 방책 시뮬레이션 결과 데이터의 입력 및 속성에 맞는 전처리를 진행하는 전처리 단계, 입력 데이터의 특징을 추출하는 모델 단계, 방책평가요소별 점수를 추론하는 모델 단계로 나뉜다. 전체 모델 프로세스를 도식으로 표현하면 Fig. 1과 같다.

3.1 벡터 임베딩

모델의 입력값으로 고려하는 상황정보 데이터의 경우 카테고리형, 레이블형, 수치형의 다양한 형식의 데이터를 포함한다. 따라서 각각 입력 항목의 타입을 고려한 전처리를 통해 벡터 형태로 변환하여 신경망 모델의 입력값으로 사용한다.

임무, 지휘관의 의도와 같은 카테고리형 데이터에는 원-핫 인코딩을 적용하였다. 각각의 항목에 들어가는 단어 집합의 크기를 벡터의 차원으로 하고, 변환되는 단어의 인덱스에 1, 나머지 인덱스에 0을 부여하는 원-핫 벡터로 표현한다.

소대의 전투력과 관련한 지표들은 그 수치에 따라 각각 Green(100∼80 %), Amber(79∼60 %), Red(59∼40 %), Black(40 % 미만) 중 하나의 값으로 레이블링 되어 있다. 해당 데이터는 범주형 데이터이지만 그 값이 연속성을 갖고 있기때문에, 각각의 레이블을 각각 3,2,1,0의 수치로 변환하는 레이블 인코딩을 사용하였다.

또한 cell의 번호로 표기되는 좌표형 데이터의 경우 MGRS(Military Grid Reference System) 좌표변환을 통해 경도, 위도 형태의 수치 데이터로 변환하였다.

마지막으로 상황정보의 수치형 데이터와 방책 시뮬레이션 결과 데이터의 경우 Z-score 정규화 알고리즘을 통해 각각을 −1에서 1 사이의 값으로 변환하였다. 전체 임베딩 전처리 알고리즘의 도식은 Fig. 3과 같다.

Fig. 3.

Description of preprocessing & embedding methods

3.2 모델 아키텍쳐

고려하는 인공지능 모델은 상황정보와 방책 시뮬레이션 결과를 기반으로 방책 후보별 랭킹을 부여하기 위해 평가지표에 점수를 부여하고 종합점수를 생성하는 기능을 수행한다.

모델 추론 단계에서 입력 데이터는 상황정보와 방책 시뮬레이션 결과 리스트를 모델에 입력하고, 출력 데이터는 방책 후보별 방책평가지표 점수, 종합순위를 출력한다. 또한, 학습모델 평가 데이터셋을 사용하여 성능 측정 기능을 수행한다.

모델의 설계도는 Fig. 4와 같이 멀티모달 형태의 신경망을 사용하였다. 두 종류의 입력데이터가 서로 다른 특성을 가지기에, 두 종류 입력을 각각 서로 다른 신경망을 적용해 학습시켰다. 이를 통해 추출한 feature들을 마지막으로 학습시켜 최종적인 평가 요소별 점수를 부여하였다. 학습에 사용한 모델 아키텍처에는 각각의 데이터 타입에 적합한 신경망 구조를 적용할 수 있다. 본 연구에서는 상황정보 데이터에는 다층 퍼셉트론 구조를, 방책 시뮬레이션 결과 학습모델은 기본적으로 데이터의 시간별 위치 정보 및 전투력을 학습하기 위해 1차원 CNN 구조를 적용하였으며, 최종적으로 점수를 출력하기 위한 네트워크로는 14개의 출력값을 갖는 단일 레이어 퍼셉트론와 0∼10까지의 점수를 출력하기 위하여 활성화 함수인 ReLU와 Clipping함수를 적용하였다. 모델의 성능 대조를 위해 다양한 모델을 추가적으로 적용하여 최종적인 예측 성공을 비교하였다.

Fig. 4.

Structure of proposed deep learning network

또한 모델의 성능 향상을 위해 인공지능 모델의 하이퍼파라미터 최적화를 적용하였다. 제안하는 모델에 사용되는 하이퍼파라미터들을 식별하고 이 중 최적화를 적용할 수 있는 대상들을 선정하였다. 선별한 리스트는 Table 2와 같다. 다음으로 선정한 파라미터들에 대하여 Bayesian Optimization 최적화 알고리즘을 사용하여 하이퍼파라미터 최적화 알고리즘을 수행하였다. 마지막으로 최적화를 통해 향상된 성능을 검증하기 위해 임의로 선택한 하이퍼파라미터를 사용하여 만든 모델과의 학습 성능 차이를 비교하였다.

List of tunable hyperparameters and tuning range

3.3 스코어 모델

제안한 모델은 각각의 평가요소에 대한 점수를 출력하게 된다. 모델의 출력값을 바탕으로 종합점수를 산출하여 효과적으로 지휘관을 지원하기 위한 모델을 추가적으로 설계하였다.

먼저 각각의 방책이 상황정보에 얼마나 적합한가에 관한 추가적인 종합점수 레이블링을 진행하였다. 다음으로 각각의 평가요소 점수를 입력값, 적합성 레이블링을 출력값으로 하는 회귀모델을 학습시켜, 각각의 요소에 대한 계수를 확인하였다. 각각의 계수가 의미하는 바는, 최종적인 지휘관의 판단에 평가요소가 얼마만큼의 영향을 끼치는지를 나타낸다.

최종적으로 종합 점수를 산출할 때에는 모델의 계수를 0에서 1 사이의 값으로 정규화한 수치를 가지고 가중치 합을 내어 종합점수를 계산하였다.

4. 실험 결과

본 장에서는 제안하는 알고리즘을 바탕으로 하여 진행한 실험 결과에 대하여 서술 한다. 본 실험은 python 의 tensorflow 및 scikit-learn 라이브러리를 기반으로 하여 구현하였다.

4.1 데이터셋

실험에서 사용한 데이터의 크기는 총 300개로, 각각 학습 데이터셋, 실험 데이터셋으로 사용하였다. 벡터 임베딩을 적용할 시 상황정보, 방책 시뮬레이션 결과 데이터는 각각 32차원, 53차원의 크기를 가지는 수치형 벡터로 변환되었다.

본 실험에서는 학습데이터 부족을 해결하기 위해 전체 데이터를 9:1의 비율로 임의로 나누어 여러 개의 (훈련 데이터, 테스트 데이터) 쌍으로 변환하였으며 각각의 데이터 쌍에 대하여 성능 확인 후에 평균을 내어 최종적으로 모델의 성능을 출력하였다.

4.2 지표

고려하는 인공지능 모델의 일반화 성능과 적합성을 평가하기 위하여 일반적으로 회귀 모델에서의 성능 평가지표로 사용되는 RMSE와 R2-score를 사용하였다.

RMSE의 경우 회귀 모델의 성능을 평가하는 가장 일반적인 지표 중 하나이다. 오차를 제곱하여 평균을 계산하기 때문에 값이 낮을수록 더 좋은 예측 성능을 보이는 것을 의미하며, 예측값과 실제 값 사이의 큰 오차에 더 큰 가중치를 부여한다는 장점이 있다.

R2-score는 모델이 종속 변수의 변동성을 얼마나 잘 설명하는지를 나타내는 지표이다. 0과 1 사이의 값을 가지며 1에 가까울수록 모델의 설명력이 높다는 의미로, 예측의 적합도를 평가할 때 사용하는 지표이다.

4.3 결과

실험 결과는 다음과 같다. 전체 데이터를 10회의 독립적인 훈련/테스트 데이터셋으로 구분하고, 각각에 대하여 성능 지표를 측정하여 평균을 내어 모델의 성능을 검증하였다. 학습은 총 2000 epoch로 진행하였다. 해당 결과는 Table 3의 내용과 같다.

Performances on test dataset

이때 고려하는 하이퍼파라미터들은 Table 2에서 표시된 최소의 수치를 사용하였다. Table 3에서 첫 번째 행은 본 논문이 제안한 모델, 두 번째 행은 3-layer MLP 이며, 나머지는 딥러닝 기반이 아닌 Support Vector Regressor(SVR), Random Forest, XGboost로 학습한 결과를 대조군으로 사용하였다. 또한 4개의 대조군 모델은 상황정보와 방책 시뮬레이션 결과 벡터를 Concatenation 하여 하나의 Input으로 만들어 실험을 진행하였다. 공정한 비교를 위해 대조군 모델 또한 하이퍼파라미터 최적화를 수행하였고 결과는 Table 4와 같다. 여러 가지 모델의 성능을 비교하였을 때 본 연구에서 개발한 튜닝이 완료된 모델이 두가지 지표 모두 가장 높은 성능을 기록하는 것을 확인할 수 있다.

Optimized hyperparameters

최적의 성능을 나타내는 모델을 통해 데이터를 학습시켰을 때 나타내는 loss curve는 Fig. 5, 6과 같다. 총 2000 epoch을 학습시킨 결과 제안하는 네트워크에서 학습이 잘 동작하고 있음을 파악할 수 있다.

Fig. 5.

Train loss curve for experiment with test dataset

Fig. 6.

Mean Absolute Error(MAE) loss curve for experiment with test dataset

5. 결 론

본 연구에서는 방책을 자동으로 채점하여 지휘관을 지원하는 인공지능 시스템을 제안하였다. 제안된 시스템은 상황정보와 방책 후보를 입력으로 받아 인공지능 모델을 활용하여 다양한 평가 요소 점수와 종합점수를 자동으로 평가하고 제시한다.

이러한 시스템의 주요 장점은 먼저, 주관적 판단을 최소화하고 객관적인 기준에 따라 방책을 평가할 수 있다는 점이다. 또한 다양한 방책 후보들을 신속하게 검토하고 평가할 수 있어 지휘관들의 의사결정 속도를 향상 시킬 수 있다. 이로써 방책 후보들의 종합점수를 통해 지휘관들의 의사결정을 더욱 지원하며, 전략적인 군사 작전 기획의 효율성을 증대시킬 수 있다. 이런 변화를 통해 전쟁 상황에서의 의사결정과 전략 수립을 보다 객관적이고 효율적으로 수행될 수 있을 것으로 기대한다.

하지만 현 연구에서는 다양한 상황정보와 방책의 확보가 제한되었기 때문에 소량의 학습데이터로 인한 과적합이 되었을 가능성이 높다. 이는 향후 다량의 데이터가 확보 될 경우 좀 더 일반화된 추천시스템이 될 것으로 기대한다.

후 기

이 논문은 2023년 정부(방위사업청)의 재원으로 국방기술진흥연구소의 지원을 받아 수행된 연구임.(방책추천 및 조정 자동화를 위한 지식베이스 구축 가시화 기술)

References

[1]. . Lee Changeun, Son Jinhi, Park HeaSuk, Lee Soyeon, Park Sangjun, Lee Yongtae. Technical Trends of AI Military Staff to Support Decision-Making of Commanders. Electronics and Telecommunications Trends 36(1):89–98. Feb. 2021;
[2]. . Yoo Donghee, Ra Minyoung, Han Changhee, Shin Jinhee, No Sungchun. Intelligent Army Tactical Command Information System based on National Defense Ontology. Journal of The Korea Society of Computer and Information 18(3)2013;
[3]. . Cho Eunji, Jin Soyeon, Shin Yukyung, Lee Woosin. A Virtual Battlefield Situation Dataset Generation for Battlefield Analysis Based on Artificial Intelligence. Journal of the Korea Society of Computer and Information 27(6)June 30, 2022;
[4]. . Baek Jaeuk, Do Seungwon, Jun Sungwoo, Lee Changeun. Definition of battlefield situation and implementation of dataset for combat environment recognition. Summer Annual Conference of IEIE 2623–2624. 2022.
[5]. . Choi Keun Ha, Lee Sang Seung, Yi Hyung Keun, Kim Byeoung Ju, Moon Ho Won. A Study on Database Design for the Knowledge Base of the Operation Plan Recommendation Automation System. Journal of The Korea Association of Defense Industry Studies 30(2):111–123. 2023;
[6]. . DAVIS Steven I.. Artificial intelligence at the operational level of war. Defense & Security Analysis 2022.
[7]. . Schubert J., Brynielsson J., Nilsson M., Svenmarck P.. Artificial intelligence for decision support in command and control systems. Proceedings of the 23rd International Command and Control Research & Technology Symposium Multi-Domain C2 18–33. November, 2018.
[8]. . Han Changhee, Shin Kyuyong, Choi Sunghun, Moon Sangwoo, Lee Chihoon, Lee Jong-kwan. A Methodology of Decision Making Condition-based Data Modeling for Constructing AI Staff. Journal of Internet Computing and Services(JICS) :237–246. 21(1)2020;
[9]. . Jin Soyeon, Lee Woosin, Kim Hackjoon, Jo Seheyon, Kang Yuri. A Study on Multiple Reasoning Technology for Intelligent Battlefield Situational Awareness. The Journal of Korean Institute of Communications and Information Sciences 45(6)2020;
[10]. . Suh Geewon, Shin Yukyung, Jin Soyeon, Lee Woosin, Ahn Jongchul, Suh Changho. Recommendation Model for Battlefield Analysis based on Siamese Network. Journal of The Korea Society of Computer and Information 28(1):1–8. January 2023;

Article information Continued

Fig. 1.

A high-level workflow of recommendation system

Fig. 2.

Example of input METT-TC dataset

Table 1.

Description of dataset label

Type Range
Common Enemy Detection
(적 강약점 탐지)
0∼10
Combat Concentration
(전투력 집중)
Mission
(임무)
Enemy Situation
(적 상황)
Friendly Situation
(아군 상황)
Time
(시간)
Attack Disruption of Enemy Defense System
(적 방어체계 균형와해)
Surprise Achievement
(기습 달성)
Enemy Rear Attack
(종심깊은 적후방공격)
Maintain Momentum
(공격기세유지)
Defense Disruption of Enemy Attack System
(적 공격체계 균형와해)
In-depth Management
(종심깊은 전투력 운용)
Integration and Cooperation of Defense Measures
(방어수단의 통합 및 협조)
Advantage of Defense
(방어의 이점 최대 이용)
Total Score 0∼100

Fig. 3.

Description of preprocessing & embedding methods

Fig. 4.

Structure of proposed deep learning network

Table 2.

List of tunable hyperparameters and tuning range

Hyperparameters Tuning Range
Optimizer SGD, RMSprop, Adam
Learning Rate 1e-2, 1e-3, 1e-4, 1e-5
Depth of Layers 2∼10
Number of Neurons 32∼128
Dropout Rate 0.2∼0.5
Convolution Layer Filter Size 1∼32
Convolution Layer Number of Filters 4∼128
Mini-batch Size 32∼128

Table 3.

Performances on test dataset

Model Average RMSE Average R2-score
Proposed 0.836 0.479
3-layer MLP 0.925 0.069
SVR 1.089 0.074
Random Forest 0.984 0.308
xgboost 0.977 0.352

Table 4.

Optimized hyperparameters

Model Hyperparameters
Proposed Optimizer Adam
Learning Rate 1e-3
Depth of Layers 4
# of Neurons 64
Dropout Rate 0.2
Convolution Layer Filter Size 16
Convolution Layer # of Filters 16
Mini-batch Size 32
3-layer MLP # of Neurons 96
Dropout Rate 0.1
Learning Rate 1e-3
Mini-batch Size 32
SVR C 1.3
gamma 0.8
Random Forest # of estimators 100
min samples leaf 8
min samples split 6
XGboost eta 0.3
gamma 7
subsample 0.6

Fig. 5.

Train loss curve for experiment with test dataset

Fig. 6.

Mean Absolute Error(MAE) loss curve for experiment with test dataset