심층신경망을 이용한 블라인드 빔포밍 기법의 방위산업 체계 적용가능성 분석

Analysis of the Applicability of Blind Beamforming Techniques using Deep Neural Network to Defense Systems

Article information

J. KIMS Technol. 2025;28(1):44-51
Publication date (electronic) : 2025 February 05
doi : https://doi.org/10.9766/KIMST.2025.28.1.044
1)Missile Research Institute, Agency for Defense Development, Korea
2)Department of Computer Science and Engineering, Korea University, Korea
임재혁1), 유호근2), 이의혁1), 오선진1), 김성권1), 정대교1), 이재훈2),
1)국방과학연구소 미사일연구원
2)고려대학교 컴퓨터학과
*Corresponding author, E-mail: ejhoon@korea.ac.kr
Received 2024 August 5; Revised 2024 November 26; Accepted 2024 November 29.

Trans Abstract

This paper compares the performance of deep neural networks(DNN) applied to antenna arrays with different element counts(8, 16, 32). The DNNs were designed using fully connected(FC) layers, comprising input, hidden, and output layers. Each hidden layer includes a single FC layer and a rectified linear unit(ReLU) activation function. Results indicate that blind beamforming with DNNs performs well with fewer elements but degrades as the number of elements increases due to increased nonlinearity, complicating training. State-of-the-art defense radar systems require many array elements, making current research insufficient. To effectively apply DNN-based blind beamforming to these large arrays, further research is needed to address the signal-to-interference noise ratio(SINR) performance degradation associated with larger array elements.

1. 서 론

적응형 신호처리 기술은 다양한 환경과 조건에 따라 실시간으로 신호를 분석하고 처리하는 기술로, 변화하는 신호 특성에 대응하여 시스템의 성능을 최적화하는 데 중점을 둔다. 최근 몇 년간, 적응형 신호처리 기술은 인공지능과 결합됨으로써 그 중요성이 더욱 부각되고 있으며, 심층신경망과 같은 최신 인공지능 기술들은 대규모 데이터에서 패턴을 학습하고 예측하 는 능력이 뛰어나, 신호처리 과정에서의 잡음 제거, 신호 예측, 패턴 인식 등의 작업을 더욱 정교하게 수행할 수 있게 되었다.

특히 통신 분야에서는 적응형 신호처리와 인공지능을 활용한 스마트 안테나 시스템이 구현되고 있으며, 이는 통신 품질을 향상시키고, 주파수 자원의 효율적인 활용을 가능하게 한다. 이러한 기술들은 5G와 같은 차세대 통신 기술의 핵심 요소로 자리 잡고 있다. 스마트 안테나 기술 중 하나인 적응형 빔포밍 기술은 원하는 신호의 각도로 메인 로브를 지향하고, 원치 않는 각도에서는 최대한 영공간을 만들어 Signal-to-Interference Noise Ratio(SINR)를 효율적으로 향상시키는데 주로 사용된다. 가장 잘 알려진 적응형 빔포밍 기술들 중 성능면에서 두드러지는 후보로는 Minimum Variance Distortionless Response(MVDR) 기법과 영공간 빔포밍 기술이 있다[1]. MVDR 방법은 SINR을 왜곡 없이 유지시키지만, 높은 사이드로브 레벨로 인해 전체 성능이 저하될 수 있는 단점이 있다. MVDR은 간섭신호의 위치를 몰라도 자기상관관계 행렬을 기반으로 간섭신호를 억제할 수 있기 때문에 블라인드 빔포밍 이라고도 하며, 본 논문에서도 이 기법을 주로 다룬다[2,3]. 적응형 빔포밍 기술들은 대게 가중치를 반복적으로 계산해야 하고 빠르게 변화하는 환경에서 맞춰 동작해야 한다. 따라서 대규모 데이터에서 패턴을 학습하고 예측하는 능력이 뛰어난 인공지능 기술들이 적응형 빔포밍 분야의 현실적인 문제의 잠재적 해결책으로 떠오르고 있다. 특히 블라인드 빔포밍 기술은 별다른 처리 없이 직접적으로 안테나 배열소자의 가중치를 계산하기 때문에 많은 연구자들이 선호하는 방식으로 최근에는 블라인드 빔포밍 기술에서 필연적으로 요구되는 큰 연산량 문제를 해결하기 위해 인공지능을 이용한 연구들이 진행되었으나[2],[3], 안테나 배열소자의 개수가 10개로 제한되었다, 한국의 최신 방위산업용 레이다 시스템에서는 레이다의 목표 탐지거리가 매우 멀기 때문에 안테나 내 많은 배열소자가 필요하다. 따라서 위 무기체계와 유사한 형식의 레이다에 심층신경망을 이용한 블라인드 빔포밍 기술을 적용하기 위해서는 기존에 제시된 10개의 소자 기준에서의 연구들만으로는 부족하며, 추가적인 적용가능성 검토가 필요하다. 특히, 안테나배열소자의 개수가 늘어남에 따라 심층신경망 입력단에 사용되는 자기상관관계 행렬 차원이 커지며, 이러한 영향이 배열소자 가중치의 비선형성을 키우는 것은 분명하기에, 안테나 배열소자가 늘어남에 따른 블라인드 빔포밍 성능결과를 분석하는 것이 필요하다. 이러한 연구의 결과로서, 본 논문에서는 안테나 배열소자의 개수에 따라, 심층신경망을 적용했을 때 나타나는 정량적 결과들을 제시하고 분석한다.

본 논문의 구성은 다음과 같다. 우선 섹션 2에서는 신경망 훈련을 위한 데이터세트를 생성하는 기반이 되는 배열 안테나 신호 모델링과 이를 이용한 블라인드 빔포밍 구성을 수식으로 도출한다. 그리고 섹션 3에서는 세 가지 유형의 신경망을 훈련시킬 수 있도록 입력단과 출력단, 은닉층 구성방법과 학습데이터 생성조건을 다룬다. 또한 우리의 주 관심사인 안테나 배열소자 개수(8, 16, 32)에 따른 성능비교를 위해 최적의 신경망 구조를 찾고 제시한다. 섹션 4에서는 세 가지 유형의 구조 간 성능을 분석하고 정략적으로 비교하고 분석한다.

2. 이론적 분석

2.1 신호 모델링

먼저, 신호 모델링을 위해 요소 간 간격 d로 구성된 M개의 등방성 소자들로 구성된 Uniform Linear Array (ULA)를 가정한다. 여기서 요소간 간격 d = λ/2이다. 그러면 입사각 θ에 대한 지향벡터 as(θ)는 식 (1)로 정의할 수 있다.

(1) as(θ)=[exp(jβ0(θ)),,,exp(jβM1(θ)]T

여기서 βn(θ)는 식 (2)로 표현할 수 있다.

(2) βn(θ)=2πλndsin(θ)

또한 ULA로 들어오는 여러 개의 신호들 중 지향을 원하는 신호에 대한 입사각을 θd, 그리고 N개의 간섭신호들의 입사각을 θi로 정의한다. 여기서 i = 1,2,…,N이다. 그러면 특정 각도로 들어오는 신호는 지향벡터 as(θ)를 이용해 표현 가능하며, 안테나 배열소자로 들어오는 입력 신호 x[k]는 식 (3)으로 모델링할 수 있다.

(3) x[k]=sd[k]as(θd)+i=1Nsi[k]as(θi)+n[k]

위 식은 또한 다음 식으로 표현 가능하다: x[k]=[x0[k],,xM1[k]]. 여기서 SdSi는 각각 지향 신호와 간섭신호이며, 각각의 신호들은 서로 상관관계가 없다. 또한 노이즈n[k]는 independent and identically distributed(i.i.d.) 조건을 만족하는 가우시안 노이즈로 가정한다. 식 (1)-(3)으로부터 구성된 안테나 소자 신호들은 출력단에서 하나로 신호로 합쳐지며, 이러한 배열소자 출력신호 y[k]는 식 (4)로 표현할 수 있다

(4) y[k]=m=1Mwmxm[k]=wHx[k]

여기서 배열소자 가중치 벡터 w는 식 (5)와 같다.

(5) w=[w0,,wM1]

2.2 블라인드 빔포밍

입력 신호 x[k] 로부터, 자기상관관계 행렬 Rs는 식 (6)을 통해 얻을 수 있으며, 이렇게 얻은 행렬 정보로부터 우리는 특정각도에서 들어오는 신호를 추정해낼 수 있다.

(6) Rs=E[x[k]xH[k]]

MVDR 기법은 수신신호의 분산을 최소화하는 기법으로[1], 배열 소자들의 가중치를 계산하기 위해 지향 신호를 제외한 신호정보가 필요하며, 노이즈와 간섭신호로만 구성된 신호x~[k]는 식 (7)로 표현할 수 있다.

(7) x~[k]=i=1Nsi[k]as(θi)+n[k]

식 (7)으로부터 또 다른 자기상관관계 행렬 Cs를 얻을 수 있으며, 이에 대한 표현식은 아래와 같다.

(8) Cs=E[x~[k]x~H[k]]

마지막으로, MVDR을 통해 계산한 이상적인 배열소자 가중치 wopt는 식 (9)과 같이 얻을 수 있다.

(9) wopt=δCs1as(θd)

여기서 δ는 배열소자 가중치 정규화 상수이다.

3. 심층신경망

3.1 심층신경망 구성

자기상관관계 행렬 Rs를 입력값으로 사용하여 이상적인 소자 가중치를 출력해주는 심층신경망을 설계하기 위해 연산속도와 연산량 측면에서 효율적인 Fully Connected(FC) 층을 사용하여 기반으로 심층신경망 설계를 하였다. Fig. 1과 같이, 심층신경망의 구성은 입력데이터를 받는 입력층, 입력과 출력 간 특징을 포함하는 여러 개의 은닉층, 출력데이터를 내보내는 출력층으로 구성되어 있으며, 각 은닉층은 단일 FC 층과 활성함수 ReLU(Rectified Linear Unit) 층으로 구성되어 있다. 활성함수 ReLU는 다음과 같이 정의된다.

Fig. 1.

The configuration of the deep neural network

(10) σ(x)=ReLU(x)={x,x00 else 

입력데이터 벡터 z는 자기상관관계 행렬 Rs를 이용하여 만든다. 우선 Rs의 상부삼각 행렬의 요소값을 이용하여 요소백터 r~ 을 식 (11)과 같이 얻을 수 있으며, 벡터의 사이즈는 M × (M + 1)/2이다.

(11) r~=[R11,R12,,R1MR22,,R2M,RMM]T

상부삼각 행렬의 요소백터 r~ 는 복소수로 구성되어 있다. 따라서 실제 훈련용 데이터로 쓰기 위해서는 실수부와 허수부를 구분해야 하며, r~ 의 실수부와 허수부를 각각 따로 추출하여 새로운 요소벡터 r 를 만든다. 이는 식 (12)과 같으며, 벡터의 사이즈는M × (M + 1)이 된다.

(12) r^=[real(r~),imag(r~)]T

따라서, r 을 정규화된 입력단 데이터벡터 z는 식 (13)과 같이 얻을 수 있으며, 이때 z의 사이즈는 r 와 동일한 M × (M + 1)이다.

(13) z=r^r^

출력단 데이터는 식 (8)을 통해 얻은 이상적인 가중치가 되며, 이러한 가중치 또한 복소수 형태이기 때문에 실수부와 허수부를 각각 따로 추출하여 데이터벡터를 구성해야 한다. 이에 따라 구성된 출력단 벡터 w^ 는 식 (14)과 같으며, 벡터 사이즈는 2M 이다.

(14) w^=[real(w),imag(w)]T

여기서 W는 식 (9)를 통해 얻은 이상적인 가중치 벡터 wopt 또는 신경망을 통해 예측된 가중치 벡터wPredict이다. 따라서 입출력단의 데이터세트는 다음과 같이 표현 가능하다: (zγ;w^γ),γ=1,2,,D. 여기서 D는 데이터 세트 샘플 개수이다. 이때, 심층신경망 학습을 위한 손실함수 LMSE는 평균 제곱 오차 방식을 사용하며 식 (15)와 같다.

(15) LMSE=1Dγ=1D(w^opt γw^predict γ)2

여기서 w^Optwopt와 식 (14)를 통해 얻은 출력단 벡터이며,w^PredictwPredict와 식 (14)를 통해 얻은 출력단 벡터이다. 또한 학습 간에는 학습 손실을 줄이기 위해 Adam[4]방식을 사용하고, 초기 학습률은 0.001을 적용했으며 epoch는 3을 적용했다.

3.2 학습 시나리오 및 학습 결과

안테나 학습 시나리오는 다음과 같다. 우선 원하는 신호의 지향각을 0도로 고정하였으며, 첫 번째 간섭신호의 입사 각도의 범위는 1° 간격으로 −40°부터 −20° 사이로 설정하였다. 또한 두 번째 간섭신호의 입사 각도의 범위는 1° 간격으로 20°부터 40° 사이로 설정하였다. 또한 데이터 생성 시에는 매번 무작위로 첫 번째 간섭신호의 입사 각도를 [−40°, −20°] 사이에서 선택하고, 두 번째 간섭신호에 대해서도 [20°, 40°] 사이에서 무작위로 선택하여 모의신호를 생성하도록 하였다. 따라서 생성해야 하는 시나리오의 개수는 441개이며, 총 데이터 세트 샘플은 1,000,000개를 생성하였다. 또한 배열소자 단위에서의 Interference-to-Signal Ratio (ISR)은 10 dB, Signal-to-Noise Ratio(SNR)은 5 dB로 가정하였다. 이렇게 함으로써 각 학습 케이스별로 대략 2000번씩 학습데이터에 포함되어 편향 없이 학습 가능하다.

본 논문에서는 배열소자 개수 8, 16, 32개에 따른 학습 결과를 기반으로 심층신경망의 성능을 비교해보는 것이 목표이며, 각각의 심층신경망을 타입 1(배열소자 8), 타입 2(배열소자 16), 타입 3(배열소자 32)으로 지칭한다. 이에 따라 타입 1, 2, 3 심층신경망의 입력단 벡터z의 크기는 각각 72, 272, 1056이 되며, 출력단 가중치 벡터 w~의 크기는 각각 16, 32, 64가 된다. 즉, 타입 1, 2, 3 심층신경망은 배열소자 개수에 따라 입출력단의 벡터 크기가 달라질 뿐만 아니라 입출력단 데이터의 스케일도 달라지기 때문에 각각의 안테나 배열소자 개수에 따라 최적의 성능을 발휘하는 심층신경망의 구성도 바뀐다. 이러한 심층심경망을 구성하는 하이퍼파라미터 범위를 은닉층 노드 개수와 은닉층 개수로 설정하였으며, 학습 시 영향을 미치는 하이퍼파라미터인 배치 사이즈와 함께 변화시켜가며 최종 학습 후의 훈련손실 값을 정리하였다. Table 1에서 볼 수 있듯이, 타입 1에서는 배치사이즈 128 또는 512로 설정했을 때 다른 파라미터에 상관없이 낮은 손실값을 가졌다. 또한 Fig. 2에서 보이는 것처럼, iteration 중간부터 훈련손실과 검증손실간 분포차이가 크게 나지 않음을 알 수 있다. 따라서 타입 1의 경우, 후보군 중 배치사이즈 512에서의 은닉층 노드 개수 512, 은닉층 개수 2를 심층신경망 파라미터로 선택하였다. 타입 2의 심층신경망은 Table 2와 같이 배치사이즈가 128일 때, 대체로 낮은 손실값을 가졌으며, 검증손실 값 역시 크게 차이를 보이지 않았다. 따라서 후보군 중 은닉층 노드 개수 256, 은닉층 개수 3을 심층신경망 파라미터로 설정하였다. Table 3에서 볼 수 있듯이 타입 3은 배치사이즈 128, 은닉층 개수 2일 때 낮은 손실값을 가졌다. 따라서 우리는 후보군 중 은닉층 노드 개수 256, 은닉층 개수 2를 심층신경망의 파라미터로 선정하였다. 또한 타입 1, 타입 2, 타입 3의 손실값은 각각 0.012732, 0.031113, 0.07183으로, 배열소자 크기가 커질수록 손실값이 커지는 것을 확인할 수 있다. 이러한 손실 값의 증가는 결국 심층심경망의 성능 열화를 일으키며, 이에 대한 자세한 결과는 섹션 4에서 다룬다.

The learning results based on the hyper parameter values for DNN with 8 array elements

Fig. 2.

The training and validation losses for tyoe 1 (the number of node: 512, the number of hidden layer: 2)

The learning results based on the hyper parameter values for DNN with 16 array elements

The learning results based on the hyper parameter values for DNN with 32 array elements

4. 시뮬레이션 결과

Fig. 3은 타입 1, 타입 2, 타입 3 심층신경망에 대해 woptwPredict를 이용해 얻은 SINR 결과를 SNR의 변화에 따라 보여준다. SINR값은 SNR 별로 테스트 데이터를 10,000개씩 생성하여 몬테카를로 시뮬레이션을 수행한 후, 평균값을 사용하였다. 시나리오는 기존 학습용 데이터와 동일하다. SINR을 계산하기 위한 과정은 다음과 같다: 지향 신호xd[k]=sd[k]as(θd) 이며, 지향을 원하는 신호를 이용해 만든 자기상관관계 행렬 Γs는 식 (16)과 같다.

Fig. 3.

The SINR using wopt and wPredict with respect to SNR: (a) type 1, (b) type 2, (c) type 3

(16) Γs=E[xd[k]xdH[k]]

여기서 식 (8)을 통해 얻은 자기상관관계 행렬 Cs와 배열소자 가중치 벡터 w를 이용해 얻은 SINR은 식 (17)과 같다.

(17) SINR=wHΓswwHCsw

Fig. 3(a)wopt와 타입 1 심층신경망을 통해 얻은 wPredict을 이용해 계산한 SINR 값이다. SNR이 5 dB 일 때 woptwPredict를 이용해 얻은 SINR 값은 각각 14.02 dB, 13.14 dB로 0.88 dB 차이가 났다. 또한 전체 SNR 범위에서 SINR 평균을 계산했을 때, 0.23 dB의 SINR 차이를 보였다. 따라서 배열소자의 개수가 8개 일 때는 심층신경망을 이용한 블라인드 빔포밍의 성능이 이상적인 결과와 차이가 매우 적은 것을 알 수 있다. 따라서 콘볼루션 심층신경망으로 구성된 이전 연구들과는 다르게[2,3], 계산복잡도 측면에서 이득이 있는 FC 층을 이용한 심층신경망으로도 간섭신호들을 충분히 억압할 수 있다. Fig. 3(b)wopt와 타입 2 심층신경망을 통해 얻은 wPredict을 이용해 계산한 SINR 값이다. SNR이 5 dB일 때 woptwPredict를 이용해 얻은 SINR 값은 각각 17.37 dB, 16.84 dB로 0.53 dB 차이가 났으며, SNR에 따른 평균으로 0.57 dB의 SINR 차이를 보였다. Fig. 3(c)wopt와 타입 3 심층신경망을 통해 얻은 wPredict을 이용해 계산한 SINR 값으로, SNR이 5 dB일 때 woptwPredict를 이용해 얻은 SINR 값은 각각 20.80 dB, 19.63 dB로 1.17 dB 차이가 났다. 또한 SNR에 따라 평균으로 1.27 dB의 SINR 차이를 보였다. 따라서 배열소자의 개수가 늘어날수록 SINR 성능이 열화되는 것을 확인할 수 있다.

Fig. 4는 타입 1, 타입 2, 타입 3의 심층신경망에 대해 이상적인 가중치 wopt와 학습한 심층신경망을 통해 얻은 가중치 wPredict를 이용하여 얻은 안테나 이득 패턴이다. Fig. 4(a)는 타입 1의 심층신경망에 대해 다음의 시나리오로 구성되어 있다(지향 각도 0°, 간섭신호 입사각 −26°, 21°). −26°에서의 이득 값은 wopt 를 사용한 경우와 wPredict를 사용한 경우에 대해 각각 −48.44 dB, −52.30 dB로 −3.86 dB 차이가 났으며, 21°에서는 wopt 를 사용한 경우와 wPredict 를 사용한 경우에 대해 각각 −52.40 dB, −51.31 dB로 1.09 dB의 차이를 보였다. Fig. 4(b)에서는 타입 2의 심층신경망에 대해 다음의 시나리오로 구성되어 있다(지향 각도 0°, 간섭신호 입사각 −40°, 35°). −40°에서 wopt 를 사용한 경우와 wPredict 를 사용한 경우에 대해 각각 이득값이 −45.08 dB, −36.14 dB로 8.94 dB의 차이를 보였으며, 35°에서는 wopt 를 사용한 경우와 wPredict를 사용한 경우에 대해 각각 −48.52 dB, −45.32 dB로 3.20 dB의 차이를 보였다. Fig. 4(c)는 타입 3의 심층신경망에 대해 다음의 시나리오로 구성되어 있다(지향 각도 0°, 간섭신호 입사각 −29°, 20°). −29°에서 wopt 를 사용한 경우와 wPredict 를 사용한 경우에 대한 이득값이 각각 −52.13 dB, −42.08 dB로 10.05 dB의 차이를 보였으며, 20°에서는 wopt 를 사용한 경우와 wPredict 를 사용한 경우에 대해 각각 −46.45 dB, −36.76 dB로 9.69 dB의 차이를 보였다. 따라서 타입 1일 때, 심층신경망을 이용해 예측한 가중치를 배열소자에 적용 시 입사각도 −26°, 21°에서 들어온 간섭신호를 잘 억압할 수 있음을 확인했다. 또한, 타입 2와 타입 3의 경우, 심층신경망을 통해 얻은 간섭신호 입사각에서의 이득값이 wopt 를 사용해 얻은 이득값 대비 높은 경향을 보이는데, 이는 이득이 배열소자 간섭신호에 대한 출력신호 y[k] 신호크기를 결정하기 때문에 이러한 간섭 신호 입사각에서의 이득값 차이가 실제 간섭신호 억제성능의 열화를 유발함을 알 수 있다. 뿐만 아니라 배열소자의 개수가 늘어날수록 wopt 를 이용해 얻은 이득패턴과 wPredict 를 이용해 얻은 이득패턴과 차이가 많이 나는 것을 확인할 수 있으며, 이러한 이득패턴의 차이가 SINR 성능의 차이를 유발하는 보인다.

Fig. 4.

The gain patterns using wopt and wPredict: (a) type 1(the steering angle at 0°, the interference signal incident angles at −26° and 21°), (b) type 2(the steering angle at 0°, the interference signal incident angles at −40° and 35°), (c) type 3(the steering angle at 0°, the interference signal incident angles at −29° and 20°)

Fig. 3의 SINR 결과를 봤을 때, 타입 3 기준 1.27 dB 정도의 억압성능 차이를 보였으며, 이러한 경향은 Fig. 4의 안테나 이득패턴 뿐만 아니라 Table 1, 2, 3에서의 손실에서도 나타난다. 배열소자 32개 기준 1.27 dB의 차이를 고려했을 때, 기능적으로는 충분히 심층신경망을 이용한 블라인드 빔포밍을 적용하는 것이 가능할 것으로 보인다. 다만, 배열소자의 개수가 늘어날수록 가중치를 학습하는 것이 어려워지는 것을 손실값 증가로 확인할 수 있었으며, 이는 비선형성을 가진 가중치 차원이 증가로 가중치 학습이 어려워지는 것으로 보인다. 또한 이러한 결과가 이득패턴의 차이와 SINR 성능 열화로 이어지는 것으로 분석되며, 이는 기존 연구들의 의견과 일치한다[5,6]. 따라서 배열소자 8개에 대해서 FC 층을 이용한 심층신경망으로 간섭신호들을 충분히 억압할 수 있음을 확인하였지만, 안테나 내에 많은 배열소자가 요구되는 방위산업용 체계에서는 심층신경망을 이용한 블라인드 빔포밍 기술을 직접적으로 적용하기보다는 배열소자의 크기가 커짐에 따라 SINR 성능이 열화되는 부분을 개선하기 위한 다양한 연구가 필요할 것으로 판단된다.

5. 결 론

본 논문에서는 배열 안테나 구성(타입 1, 2, 3)에 따른 심층신경망의 성능을 분석하였다. 연구 결과, 계산복잡도가 적은 FC 층을 이용한 심층신경망으로 간섭신호들을 충분히 억압할 수 있음을 확인하였다. 또한 배열 소자의 크기가 증가할수록 손실값, SINR, 안테나 이득 패턴 등의 성능 지표에서 열화가 발생하였음을 확인하였다. 이는 배열 소자의 개수가 늘어날수록 비선형성을 가진 가중치의 차원이 증가하고, 이로 인해 가중치 학습이 어려워지는 것으로 파악된다. 따라서 최신 방위산업 레이다 시스템은 심층신경망을 이용한 블라인드 빔포밍 기술을 적용하기 위해서는 배열 소자 수 증가에 따른 SINR 성능 저하 문제를 해결해야 한다. 앞으로 이와 관련된 다양한 연구가 필요할 것으로 판단된다.

References

[1]. . Trees Van, Harry L.. Optimum array processing: Part IV of detection, estimation, and modulation theory John Wiley & Sons; 2002.
[2]. . Ramezanpour P., Rezaei M. J., Mosavi M. R.. Deep‐learning‐based beamforming for rejecting interferences. IET Signal Processing 14(7):467–473. 2020;
[3]. . Ramezanpour P., Mosavi M. R.. Two-stage beamforming for rejecting interferences using deep neural networks. IEEE Systems Journal 15(3):4439–4447. 2020;
[4]. . Kingma D. P., Ba J.. Adam: a method for stochastic optimization. Proc. of the 3rd Int. Conf. on Learning Representations(ICLR), San Diego, CA, USA 2015.
[5]. . Sarevska M., Salem A. B. M.. Antenna array beamforming using neural network. World Academy of Science, Engineering and Technology 24:115–119. 2006;
[6]. . Mallioras I., Zaharis Z. D., Lazaridis P. I., Pantelopoulos S.. A novel realistic approach of adaptive beamforming based on deep neural networks. IEEE Transactions on Antennas and Propagation 70(10):8833–8848. 2022;

Article information Continued

Fig. 1.

The configuration of the deep neural network

Fig. 2.

The training and validation losses for tyoe 1 (the number of node: 512, the number of hidden layer: 2)

Table 1.

The learning results based on the hyper parameter values for DNN with 8 array elements

배치사이즈: 128 배치사이즈: 256 배치사이즈: 512
은닉층 노드 개수
은닉층수 128 256 512 128 256 512 128 256 512
2 0.012727 0.012745 0.012732 0.013078 0.013086 0.013077 0.012727 0.012745 0.012732
3 0.012745 0.012742 0.012742 0.013123 0.013144 0.013131 0.012745 0.012742 0.012742
4 0.012739 0.012744 0.012734 0.01312 0.013143 0.013167 0.012739 0.012744 0.012734
5 0.012735 0.012728 0.012748 0.013165 0.013168 0.013147 0.012735 0.012728 0.012748

Table 2.

The learning results based on the hyper parameter values for DNN with 16 array elements

배치사이즈: 128 배치사이즈: 256 배치사이즈: 512
은닉층 노드 개수
은닉층수 128 256 512 128 256 512 128 256 512
2 0.031123 0.031129 0.031121 0.031669 0.031674 0.031669 0.032177 0.032182 0.032196
3 0.031132 0.031113 0.031123 0.031698 0.031712 0.031699 0.032204 0.032221 0.032236
4 0.03113 0.031131 0.031145 0.031703 0.031722 0.031733 0.032223 0.032209 0.032218
5 0.031156 0.031161 0.031175 0.031727 0.031765 0.031751 0.032228 0.032247 0.032282

Table 3.

The learning results based on the hyper parameter values for DNN with 32 array elements

배치사이즈: 128 배치사이즈: 256 배치사이즈: 512
은닉층 노드 개수
은닉층수 128 256 512 128 256 512 128 256 512
2 0.071838 0.07183 0.071814 0.072107 0.072106 0.072104 0.073236 0.073253 0.073253
3 0.071917 0.071861 0.071868 0.072151 0.072165 0.072149 0.073299 0.073327 0.073331
4 0.071951 0.071951 0.071962 0.072183 0.07221 0.072184 0.073356 0.073374 0.073375
5 0.072143 0.072121 0.072176 0.072341 0.072322 0.072328 0.073396 0.073429 0.073469

Fig. 3.

The SINR using wopt and wPredict with respect to SNR: (a) type 1, (b) type 2, (c) type 3

Fig. 4.

The gain patterns using wopt and wPredict: (a) type 1(the steering angle at 0°, the interference signal incident angles at −26° and 21°), (b) type 2(the steering angle at 0°, the interference signal incident angles at −40° and 35°), (c) type 3(the steering angle at 0°, the interference signal incident angles at −29° and 20°)