Transactions of the Korean Society for Noise and Vibration Engineering
[ Article ]
Transactions of the Korean Society for Noise and Vibration Engineering - Vol. 32, No. 2, pp.176-185
ISSN: 1598-2785 (Print) 2287-5476 (Online)
Print publication date 20 Apr 2022
Received 17 Jan 2022 Revised 24 Feb 2022 Accepted 10 Mar 2022
DOI: https://doi.org/10.5050/KSNVE.2022.32.2.176

항공기 소음 식별 및 빅데이터 분석을 위한 AI 모델 연구

윤성철* ; 임진이** ; 정천우
AI Model for Aircraft Noise Identification and Big Data Analysis
Soungcheol Yoon* ; Jinyi Leem** ; Chonwoo Jung
*Member, INERTANCE Inc., Senior Researcher
**Member, INERTANCE Inc., Researcher

Correspondence to: Member, INERTANCE Inc., CEO E-mail : admin@inertance.com # A part of this paper was presented at the KSNVE 2021 Annual Autumn Conference‡ Recommended by Editor Nam Keun Kim


© The Korean Society for Noise and Vibration Engineering

Abstract

Recently, there has been a growing interest in aircraft noise. Aircraft noise analysis requires the identification and extraction of aircraft noise from background noise and is generally carried out through manual work by engineers. The management of data through manual work is not only required by expert engineers, but is not efficient to handle the vast noise data. Moreover, with the development of big data analysis techniques through AI, artificial intelligence technology, which can efficiently process data in the noise field, is being used. The purpose of this study is to develop an artificial intelligence model that extracts and evaluates aircraft noise. Aircraft noise data measured for 140 days were analyzed via an AI model, and the highest recognition rate was confirmed in the combined model.

Keywords:

Artificial Intelligence, Aircraft Noise, WECPNL, Lden

키워드:

인공지능, 항공기소음, 가중등가감각소음레벨, 가중등가소음도

1. 서 론

최근 「군용비행장·군 사격장 소음 방지 및 피해 보상에 관한 법률」이 시행되며, 국내 군 공항 소음에 대한 전수조사가 이루어지는 등 항공기 소음 분야에 대한 관심도가 높아지고 있다. 항공기 소음의 평가는 공항 주변의 소음을 대표할 수 있는 지점을 선정하여 최소 7일간 연속 측정한 데이터를 이용한다. 항공기 소음 분석은 배경 소음으로부터 항공기 소음을 식별, 추출하는 작업이 반드시 요구되며, 현재 소음 평가에서의 항공기 소음 식별은 주로 엔지니어의 수작업을 통해 이루어지고 있다. 수작업을 통한 데이터의 관리는 측정 지점에 따라 항공기 소음 분석에 숙련된 엔지니어 인력이 요구될 뿐 아니라, 점점 방대해지는 소음 데이터를 처리하기에 효율적이지 못하다. 한편 AI를 통한 빅데이터 분석 기법의 발전에 따라, 소음 분야에도 데이터를 효율적으로 처리하는 데 강점이 있는 인공지능 기술을 활용하는 추세이다. 이 연구는 소음공정시험기준에 따라 연속 측정된 광범위한 항공기 소음 데이터를 이용하여 배경소음에서 효율적으로 항공기 소음을 구별하여 평가하는 인공지능 모델을 개발하는 데 그 목적이 있다.


2. 이 론

2.1 선행연구 조사

최근들어 인공지능, 머신러닝, 딥러닝과 소음 진동 분야를 연계하기 위한 학술 논문이 활발히 게재되고 있으나, 항공기 소음을 포함하여 환경 소음 분야에서 인공지능 알고리즘 기술을 활용한 사례는 제한적이다.

AbdElRahman ElSaid는 LSTM(long short-term memory) 기반의 신경망 모델을 활용하여, 항공기 엔진의 고장 진동을 예측하였는데, 항공기 엔진 진동을 5초, 10초, 20초 등으로 추출하여 학습(training)하였으며, 각각의 모델에서 3.3 %, 5,51 %, 10.19 %의 MAE(mean absolute error) 오차를 확인하였다(1).

Zhang 등(2)은 도심 속 환경 소음을 1초, 1분, 10분, 30분으로 추출하여 LSTM 모델에 학습하였으며, 1초로 추출한 모델에서 1.77 dB(A) ∼ 3.20 dB(A), 1분으로 추출한 모델에서는 0.71 dB(A) ∼ 1.64 dB(A), 10분으로 추출한 모델에서는 0.48 dB(A) ∼ 0.93 dB(A)의 RMSE (root mean square error)를 확인하였다.

Pak and Kim(3)은 고정된 항공기 소음자동측정망에서의 항공기 소음 판별을 위하여, 100 000개의 항공기 소음 mp3 파일을 mel-spectrogram과 MFCC (mel-frequency cepstral coefficients)로 전처리하여, 합성곱신경망(CNN : convolutinal neural network)에 학습시켰으며, 최대 99.84 %의 예측 정확도를 확인하였다.

Lim 등(4)은 배경소음으로부터 항공기 소음을 분류하기 위해 4개소 24시간의 소음 중 30 000초의 데이터를 합성곱신경망(CNN : convolutinal neural network)에 학습시켰으며, Test data의 정확도가 약 99.66 %로 나타났다.

Kim(5)은 정수장 운영데이터 예측을 위해 CNN-LSTM 결합모형을 연구하였고, Kim(6)은 간헐적 이벤트 환경에서 CNN-LSTM 결합방법을 활용한 시계열 예측 성능에 관해 연구하였으며, Lim(7)은 항공기 소음의 경우 발생원이 인위적이고 소음 발생의 시간적 특징이 불규칙하여 시퀀스 to 시퀀스 LSTM 모델이 구조적 한계가 있으므로 CNN-LSTM 형태를 제언하였다. 또한 Zhang 등(8)은 원격 감지된 이미지 분류를 위해 MLP-CNN 분류기를 연구하였고, Alani 등(9)는 단기 일조 강도를 예측하기 위해 CNN-MLP 모델을 연구하는 등 여러 연구자들이 결합모델에 대해 연구하였다.

선행연구에서는 10초 단위 데이터로 항공기소음을 분석하기 때문에 해당 데이터가 10초 중 1초라도 배경소음과 10 dB 이하의 차이가 발생한다면 항공기소음 분류에서 제외되는 문제가 발생할 수 있다. 따라서 이 연구에서는 1초 단위의 데이터를 통하여 항공기소음을 학습하고, WEPCPNL 및 Lden을 계산하여 그 결과를 분석하였다.

2.2 AI 모델

(1) 다층 퍼셉트론(multi-layer perceptron, MLP)

약 1000억 개의 뉴런으로 치밀하게 연결된 인간의 뇌처럼, 뉴런과 비슷한 메커니즘을 가진 퍼셉트론을 서로 연결시키고 복잡하게 조합하여 구성한 것이 인공 신경망(artificial neural network)이다. 인공 신경망을 구성하는 가장 중요한 기본 단위인 퍼셉트론(perceptron, Fig. 1)은 입력값과 활성화 함수를 사용해 출력값을 다음으로 넘기는 가장 작은 신경망 단위이다. 즉, 퍼셉트론은 입력값에 가중치 w를 곱한 다음 바이어스 b를 더해 다음으로 보내는 것이다(10). 각각의 입력값에는 각각의 가중치가 존재하는데, 기계가 가중치를 스스로 찾아내도록 하는 것이 학습(training)이며, 최적의 가중치를 찾아내는 것이 학습의 목표이다. 페셉트론은 입력층과 출력층으로 이루어져 있는데, 직선 하나로 두 영역을 나눌 수 있는 문제에 대해서만 구현이 가능하다는 단점이 있다. 입력층과 출력층 사이에 은닉층(hidden layer)를 추가하여 이러한 단점을 해결한 것이 다층 퍼셉트론(Fig. 1)이다(10).

Fig. 1

Perceptron(left), MLP(right)

(2) LSTM(long short-term memory network)

순환 신경망(recurrent neural network, RNN)은 음성 및 텍스트 인식에 적합한 신경망으로, CNN은 이전 데이터의 결과를 기억할 수 없다는 단점이 있는 반면, RNN은 이전 상태를 기억할 수 있어 현재의 입력 데이터뿐만 아니라 시간이 지남에 따라 경험한 것들도 입력으로 사용한다(11,12).

LSTM(long short-term memory network)은 1997년 Hochreiter와 Schmidhuber가 처음 생각한 RNN 구조로서, 오래된 시그널이 점차 소실되는 것을 막아준다. RNN은 입력데이터의 길이가 길어질수록, 학습능력이 크게 저하되는데 LSTM은 이러한 단점을 해결하기 위해 제시된 모델이다. 양방향 순환층(bidirectional recurrent layer)은 순환 신경망에 같은 정보를 다른 방향으로 주입하여 정확도를 높이고 기억을 좀 더 오래 유지시킨다(11,12).

(3) 합성곱 신경망

합성곱 신경망(convolutional neural network, CNN)은 시각적 영상을 분석하는데 사용되는 다층 인공신경망의 종류로서, 사진과 동영상, 음성 문제를 학습하는 딥러닝 알고리즘이다. CNN은 입력 이미지를 수학적 행렬로 전환한 후 합성곱 레이어에서 필터에 의해 여러 특성 맵을 얻어 낸다. 합성곱 레이어에서 얻은 특성 맵은 풀링 레이어를 거치면서 이미지의 가장 중요한 부분은 보존하면서 더 압축되고, 풀링된 이미지는 프래트닝을 통해 하나의 열로 만들어져 인공신경망 입력 형태로 변환된다(Fig. 2)(13).

Fig. 2

Concept of CNN

(4) 케라스의 함수형 API

케라스는 딥러닝을 구동시키는 라이브러리로서(10), 케라스에서 모델을 정의하는 방법은 순차 모델(sequential model)과 함수형 API(functional API) 두 가지가 있다. 케라스의 함수형 API를 사용하면, sequential 모델(순차모델)이 구현할 수 없는 다중 입력 모델, 다중 출력 모델, 네트워크 구조 모델, 잔차 연결 모델 등을 만들 수 있다. Sequential 모델을 사용하면 대부분의 문제에 대해 레이어별 모델을 만들 수 있으나, 단계를 공유하거나 입력이나 출력이 여러 개인 모델을 만들 수 없다. 함수형 API를 사용하면 모델 생성 과정이 유연해지므로, 단순히 이전 레벨에서 다음 레벨로 전달하는 방식이 아닌, 레벨을 다양하게 연결하여 복잡한 네트워크를 만들 수 있다. 함수형 API에서는 직접 텐서들의 입출력을 다루며, 함수처럼 층을 사용하여 텐서를 입력받고 출력한다. 또한 층 객체를 여러 번 재사용할 수 있어 가중치를 공유하고 함께 학습할 수 있다. 즉, 함수형 API는 고급 심층 신경망 구조를 구축하기 위해 필요한 도구라고 할 수 있다(11,12).

2.3 모델 평가 지표

혼동행렬(confusion matrix, Fig. 3)은 학습된 모델이 분류를 수행하는데 얼마나 혼동이 있는지(confused) 보여주는 지표로서, 학습을 통한 예측 성능을 측정하기 위하여 예측값과 실제값을 비교하여 분류 모델을 평가하는 방법이다. 혼동행렬을 통해 정확도(accuracy), 정밀도(precision), 재현율(recall), F1 score를 확인할 수 있다(13).

Fig. 3

Confusion matrix

TN(true negative)은 실제값 negative를 negative로 예측한 결과 수이고, FP(false positive)는 실제값 negative를 positive로 예측한 결과 수이며 이런 에러를 1종 오류라고도 한다. FN(false negative)은 실제값 positive를 negative로 예측한 결과 수이고 이런 에러를 2종 오류라고 하며, TP(true positive)는 실제값 positive를 positive로 예측한 결과 수이다. 딥러닝 알고리즘의 목표는 TN과 TP는 최대로 하고 FN과 FP는 최소로하여 정확도(accuracy)를 높이는 것이다(식 (1))(13).

Accuracy=TP+TNTP+TN+FP+FN(1) 

정밀도(precision)는 모델에서 positive로 분류된 것 중 실제값이 positive인 비율을 말하며 식 (2)와 같이 구할 수 있다.

Precision=TPTP+FP(2) 

재현율(recall)은 실제 값이 positive인 것 중에서 모델이 positive로 분류한 비율을 말하며 식 (3)과 같이 구할 수 있다.

Recall=TPTP+FN(3) 

F1 score는 정밀도와 재현율의 조화평균을 말하며, 데이터가 불균형할 때 accuracy를 대신하여 사용되고, 식 (4)와 같이 구할 수 있다.

F1 score=2×Precision×RecallPrecision+Recall(4) 

2.4 항공기소음 분석

(1) WECPNL (weighted equivalent continuous perceived noise level)

국내 항공기소음 평가단위 WECPNL은 식 (5a)와 같이 항공기 통과시 측정, 기록된 소음도의 최고치의 평균과 항공기 운항시간을 고려한 등가통과횟수(N)을 통하여 산출된다.

WECPNL=Lmax¯+10logN-27(5a) 
N=N2+3N3+10N1+N4(5b) 

여기서, N1은 0시 ~ 07시까지의 비행횟수, N2는 07시 ~ 19시까지의 비행횟수, N3은 19시 ~ 22시까지의 비행횟수, N4는 22시 ~ 24시까지의 비행횟수이다.

(2) Lden (가중등가소음도)

Lden은 식 (6)과 같이 항공기 통과시 측정, 기록된 1초 단위의 등가소음도와 항공기 운항시간에 따른 보정값(주간 : +0 dB, 저녁 : +5 dB, 야간 : +10 dB)에 의하여 산출된다.

Lden=10logT0Ti10LAEdi10+j10LAEej+510+k10LAEnk+1010(6) 

여기서, T는 항공기소음 측정시간(86 400초, 1일기준), T0는 기준시간(1초), i는 주간 시간대(07시 ~ 19시) 측정된 i번째 소음노출레벨, j는 저녁 시간대(19시 ~ 22시) 측정된 j번째 소음노출레벨, k는 야간 시간대(22시 ~ 07시) 측정된 k번째 소음노출레벨이다.

(3) WECPNL-Lden의 상관관계

국내 항공기소음 평가단위는 2023년 1월 1일부터 기존 WECPNL에서 Lden으로 변경 예정이다. 이에따라 과거 WECPNL 단위로만 공항 주변 소음을 평가한 자료를 향후에도 활용하기 위하여 WECPNL과 Lden의 상관관계에 관한 연구가 꾸준히 진행되고 있다. 민간공항에서는 WECPNL과 Lden는 약 13 dB의 차이가 있다고 연구되었으나(14), Kim(15) 등은 WECPNL과 Lden의 상관관계에 관하여 비행장 별 운항되는 항공기의 제원이 다르기 때문에 환산치를 공항별로 제시할 필요성이 있다고 언급하였다.


3. 항공기 소음측정 및 전처리

3.1 항공기 소음측정

소음의 측정 방법은 「소음진동공정시험기준」과 「군용비행장, 군사격장 소음영향도 조사 예규」의 내용을 준용였고, 인공지능 알고리즘 활용과 학습을 위해 Table 1에 언급된 민항기, 군용기 등 다양한 항공기에 대하여 1/3 옥타브밴드 형식으로 1초 간격으로 데이터를 수집하였다.

3.2 소음데이터 전처리

「소음진동공정시험기준」에 의하면, 항공기 소음은 ‘배경소음보다 10 dB(A)이상 크고, 지속시간이 10초 이상’인 소음이므로, 측정된 항공기 소음 중 배경소음보다 10 dB(A)이상 큰 소음을 ‘1’, 그 외의 소음을 ‘0’으로 매 초마다 레이블링(labeling)하였다. 이 경우, ‘0’이 압도적으로 많은 불균형 데이터세트(13)가 발생하므로, 그 중 지점별 특성 및 지역별 안배를 고려하여, 4 732 119초를 최초 선택하였다. 하지만 4 732 119초 중 ‘1’(항공기소음)로 레이블링한 것은 309 762초였고 ‘0(기타소음)’으로 레이블링한 것은 4 422 357초로 여전히 ‘0’이 매우 높은 비율을 차지하였고, 모델 학습을 진행했을 때, 모델이 모든 데이터를 ‘0’으로 분류하여도 정확도가 86.9 %가 되는 모순이 발생하였다. 따라서 1차로 선택한 4 732 119초 중 항공기소음을 잘 나타내는 부분의 데이터를 중심으로 748 002초를 재선택하여 학습을 진행하였다. 재선택한 748 002초 중 ‘1’로 레이블링한 것은 244 301초였고, ‘0’으로 레이블링한 것은 503 701초였다.

항공기 소음의 지속시간이 기본적으로 10초 이상인 점을 고려하여, LSTM과 CNN에는 10초 단위 행렬로 학습시켰으며, MLP는 해당 모델의 데이터 입력 형태에 따라 1초 단위 행렬로 학습하였다. 데이터의 각 행은 시간으로 1초 간격이고, 각 열은 1/3옥타브밴드로 측정된 주파수별 Leq값 33개와 1초 Leq, 1초 Lmax, L95를 포함하는 36개의 값이다(Fig. 4).

Airport and characteristics

Fig. 4

Example of data

레이블링 작업은 각 초마다 항공기소음의 여부, 배경소음과이 차이 등을 판단하여 엔지니어가 수작업으로 진행해야하므로 시간이 매우 많이 소요된다. 레이블링 작업을 조금 더 원활하게 하기 위해 Fig. 5 처럼 소음 데이터를 시각화하여 진행하였다. 데이터의 크기에 따라 음영을 적용하였으며, 항공기 소음의 경우 검정색으로 특징적인 모양이 나타남을 알 수 있으며, 이 모양은 기종마다 다르다. 표 우측에 붉은색으로 표시된 부분이 ‘1’로 레이블링한 부분이다.

Fig. 5

Example of preprocessing

CNN의 첫 단계는 이미지 입력이며 입력된 이미지를 수학적 행렬로 전환하는 것이다(13). 즉, 일반적으로 CNN을 이용한 이미지 분류 모델은 Fig. 6의 method 1처럼 저장된 이미지를 불러와서 이미지를 숫자로 변환한 후 학습에 사용한다.

Fig. 6

Comparison of preprocessing

기존 연구에서는 소음 데이터를 CNN에 적용하기 위해, 우선 숫자로 이루어진 소음 데이터를 이미지로 변환하여 저장하였다. 그 후 저장된 이미지를 불러와서 다시 숫자로 변환하고 CNN 모델에 입력해 학습을 진행하였는데(Fig. 6 method 2),(4,16) 이 연구에서는 이미지 변환 과정 없이 소음 데이터를 숫자 형태 그대로 rescaling하여 CNN에 적용함으로써 시간을 단축시켰다(Fig. 6 method 3).

데이터를 7:3의 비율로 학습 세트(train set)와 테스트 세트(test set)로 나누고, 학습 세트의 20 %는 검증 세트(validation set)로 사용하였다. 즉, 전체 데이터를 학습 세트 56 %, 검증 세트 14 %, 테스트 세트 30 %로 나누었다. 학습은 학습 세트로만 실시하고 테스트 세트는 학습이 얼마나 잘 되었는지 테스트하는데에만 사용함으로써 과적합(overfitting)을 예방하였다. 과적합이란 모델이 학습 세트 안에서는 좋은 성능을 보이지만 새로운 데이터에 적용하면 잘 맞지 않는 것을 말한다. 검증 세트는 학습과정에서 학습 세트와 비교하여 정확도 및 손실값을 확인할 수 있게 해준다.


4. AI 모델의 구성 및 평가

4.1 AI 모델의 구성 및 학습

이 연구에서 개발한 모델은 MLP와 LSTM, CNN 모듈을 케라스 함수형 API를 이용하여 병합한 모델이다(Fig. 7). 다양한 모델을 연결하여 응용하는 것은 딥러닝 모델의 효율성을 개선하는 방법 중 하나이다. Tables 2 ~ 4는 모델의 MLP, LSTM, CNN 부분의 구체적인 파이썬 코드이고, Table 5Tables 2 ~ 4의 코드를 병합한 방법에 따른 결과를 비교한 표이다.

Fig. 7

Configuration of AI model

Model’s MLP code

Model’s LSTM code

Model’s LSTM code

Comparison of combined model

AI 모델 분석 결과, MLP, LSTM, CNN을 모두 병합한 모델에서 가장 성능이 좋았다(Table 5). 전체적으로 모든 모델에서 수치가 비슷해 보이지만, 모델이 분류한 데이터를 살펴보면 성능에 차이가 있음을 알 수 있다. 예를 들어, Fig. 8은 항공기 소음이 아니지만 AI 모델들은 항공기 소음으로 분류하였는데, MLP-LSTM 병합모델, MLP-CNN 병합모델, CNN단일모델, LSTM 단일모델에서 상대적으로 많은 오류가 나타났으며, MLP-LSTM-CNN 병합 모델에서 가장 적은 오류가 나타났다.

Fig. 8

Example of model error

Fig. 9Fig. 10은 모델의 학습 과정을 보여준다. 학습의 횟수(epoch)를 과도하게 높이면 학습 세트에서는 정확도가 올라가지만 새로운 다른 데이터에서는 정확도가 오히려 떨어지는 과적합이 발생할 수 있다. 이러한 과적합을 예방하기 위해 earlystopping 함수를 사용하여 학습을 진행하였다. earlystopping 함수는 매 학습마다 검증 세트의 정확도 또는 손실값을 고려하여 모델의 성능이 나빠지기 시작하면 학습을 멈추고, 가장 성능이 좋았던 모델을 저장할 수 있게 해준다. Fig. 9를 보면 모델은 총 25회 반복하여 학습한 후 종료되었음을 알 수 있다. 파란색 그래프는 학습 세트에서 학습할 때마다 모델의 정확도가 높아지는 것을 나타내고, 빨간색 그래프는 매 학습마다의 검증 세트 정확도를 나타낸다. 마찬가지로 Fig. 10에서 파란색 그래프는 학습 세트의 손실값을, 빨간색 그래프은 검증 세트의 손실값을 나타낸다.

Fig. 9

Learning accuracy of AI model

Fig. 10

Learning loss of AI model

4.2 AI 모델 평가

이 연구에서 개발한 모델의 test data의 정확도(accuracy)는 99.57 %로 loss값은 0.0153이다. Loss값은 실제값과 예측값 사이의 오차를 나타내는 값이다.

분류 모델의 성능을 보여주는 혼동행렬을 보면, TN(true negative)은 164 599초, FP(false positive)는 635초, FN(false negative)은 334초, TP(true positive)는 58 830초이다(Fig. 11). 모델이 항공기 소음으로 분류한 소음 중에 실제 항공기 소음을 나타내는 정밀도(precision)는 0.9893이고, 실제 항공기 소음 중에 모델이 항공기소음으로 분류한 것을 나타내는 재현율(recall)은 0.9943이며, F1 score는 0.9918이다.

Fig. 11

Results of confusion matrix

4.3 AI 모델 검증

이 연구에서는 엔지니어가 분류한 항공기 소음의 WECPNL 및 Lden 값과 AI 모델이 분류한 항공기 소음의 WECPNL 및 Lden 값을 비교하여 AI 모델을 검증하였다(Fig. 12).

Fig. 12

Verification procedure for AI model

검증을 위해 공항 인근에서 측정한 총 14지점의 소음 데이터를 사용하였고, 이 데이터는 학습에 사용되지 않은 새로운 데이터이다. 한 지점의 데이터는 하루 24시간의 데이터(86 400초)를 모두 포함한다.

WECPNL 및 Lden의 산출은 「소음진동공정시험기준」에 명시된 방법으로 엔지니어가 수계산하였다.

엔지니어가 분류한 항공기 소음의 WECPNL 값과 AI 모델이 분류한 항공기 소음의 WECPNL 값은 평균 0.62 dB의 차이를 보였다. 9개 지점에서 WECPNL 값의 차이가 1 dB 이하였고, 나머지 4개 지점의 차이는 1 dB ~ 2 dB 사이였으며 1개 지점에서는 차이가 없었다. 엔지니어가 분류한 항공기 소음의 Lden 값과 AI 모델이 분류한 항공기 소음의 Lden 값은 평균 0.17 dB의 차이가 나타났다. 9개 지점은 1 dB 이하의 차이를 보였으며 5개 지점에서는 차이가 없었다(Table 6).

Verification of AI model


5. 결 론

이 연구에서는 공항 근처에서 측정한 소음 데이터를 MLP, LSTM, CNN 병합 모델로 학습하여 항공기 소음을 추출 및 분류하는 AI 모델을 개발하였다. 학습 결과 모델의 테스트 세트의 정확도는 99.57 %로 loss값은 0.0153 이였다.

AI모델의 검증을 위해 학습에 사용되지 않은 14일의 새로운 소음 데이터를 입력하여 AI 모델이 분류한 항공기 소음의 WECPNL과 Lden을 계산하였으며, 엔지니어가 분류한 항공기 소음의 WECPNL과 Lden 값과 비교하였다. 비교 결과, WECPNL은 평균 0.62 dB의 차이를 보이고, Lden은 평균 0.17 dB의 차이가 나타났다.

이 연구는 AI 모델을 이용하여 점차 방대해지는 소음데이터에서 효율적으로 항공기소음을 식별해냄으로써 실무에 도움이 되고자 하였다. 결과적으로 AI 모델이 분류한 항공기 소음과 엔지니어가 분류한 항공기 소음의 WECPNL 및 Lden이 평균 1 dB 미만의 차이를 나타냄으로써 실무환경에 적용 가능하리라고 기대한다. 또한 항공기 소음 데이터를 전처리하는 과정에서 항공기 기종에 따라 소음의 주파수별 특성이 다름이 확인되었다. 따라서 향후 여러 공항 근처에서 다양한 항공기 기종의 소음을 측정하여 데이터를 축적하여 모델에 반영함으로써 모델의 정확도를 향상시킬 것을 제언한다.


6. 고찰 및 토론

AI 모델 개발은 전처리 과정, 특히 레이블링 과정에서 가장 큰 시간이 소요된다. 이 연구에서는 데이터를 시각화한 것이 레이블링에 도움이 되었지만 여전히 많은 시간이 소요되었다. 개발한 AI 모델에 새로운 데이터를 축적하고 계속해서 학습하여 모델의 성능을 향상시키려면 레이블링 시간을 단축할 수 있는 여러 가지 방법을 고안하는 것이 필요할 것으로 생각된다.

전처리 과정에서 항공기의 기종에 따른 주파수별 특성이 다름을 확인하였으며, 특히 회전익과 고정익간 주파수 특성에서 차이를 나타내었다. 따라서 동일한 AI 모델을 적용하여도 운항기종이 각기 다른 공항별로 정확도의 차이가 나타났다. 여러 기종에 대한 측정 데이터와 신규 비행장의 측정 데이터 등 많은 데이터를 축적하여 공항별 정확도의 차이를 줄여나가는 것이 필요할 것으로 판단된다.

추후 개발된 AI 모델을 상용화하기 위하여, AI 모델을 이용한 항공기 소음 분류 및 WECPNL과 Lden 자동 계산 등의 기능을 포함하는 프로그램을 개발할 필요성이 있다.

Acknowledgments

이 연구는 정부(과학기술정보통신부)의 재원으로 과학기술일자리진흥원의 지원을 받아 수행된 연구임(NTIS No. 1711149702).

References

  • ElSaid, A., Wild, B., Higgins, J. and Desell, T., 2016, Using LSTM Recurrent Neural Networks to Predict Excess Vibration Events in Aircraft Engines, Paper presented at the 2016 IEEE 12th International Conference on e-Science (e-Science), pp. 260~269. [https://doi.org/10.1109/eScience.2016.7870907]
  • Zhang, X., Zhao, M. and Dong, R., 2020, Time-series Prediction of Environmental Noise for Urban IoT Based on Long Short-term Memory Recurrent Neural Network, Applied Sciences, Vol. 10, No. 3, p. 1144. [https://doi.org/10.3390/app10031144]
  • Pak, J.-W. and Kim, M.-K., 2019, Convolutional Neural Network Approach for Aircraft Noise Detection, Paper presented at the 2019 International Conference on Artificial Intelligence in Information and Communication (ICAIIC), pp. 430~434. [https://doi.org/10.1109/ICAIIC.2019.8669006]
  • Lim, S. B., Choi, S. E., Yang, S. H., Min, H. J. and Park, S. K., 2020, Aircraft Noise Discrimination Modeling Using Deep Learning, Paper presented at the KSNVE Annual Spring Conference, p. 107.
  • Kim, H. G., 2018, A Study on CNN-LSTM Coupled Model for Prediction of Waterworks Operation Data, Doctoral Dissertation, Paichai University, Korea.
  • Kim, J. S., 2019, Improved Time Series Prediction Using Coupled CNN-LSTM in Rare Event Environments, Master’s Thesis, Kookmin University, Korea.
  • Lim, S. B., 2021, A Study on the Prediction Model of Deep Learning Time Series for Aircraft Noise Assessment, Master’s Thesis, Yonsei University, Korea.
  • Zhang, C., Pan, X., Li, H., Gardiner, A., Sargent, I., Hare, J. and Atkinson, P. M., 2018, A Hybrid MLP-CNN Classifier for Very Fine Resolution Remotely Sensed Image Classification, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 140, pp. 133~144. [https://doi.org/10.1016/j.isprsjprs.2017.07.014]
  • Alani, O., Abraim, M., Ghennioui, H., Ghennioui, A., Ikenbi, I. and Dahr, F.-E., 2021, Short Term Solar Irradiance Forecasting Using Sky Images based on a Hybrid CNN–MLP Model, Energy Reports, Vol. 7, pp. 888~900. [https://doi.org/10.1016/j.egyr.2021.07.053]
  • Cho, T. H., 2020, Deep-learning for Everyone, Gilbut Publishing Inc.
  • Chollet, F., 2018, Deep Learning with Python, H. S. Park, Trans., Gilbut publishing Inc.,
  • Ciaburro, G. and Kim, J. J., 2020, Keras 2.x Projects, Acorn publishing Co.
  • Bhagwat, R., Abdolahnejad, M., Moocarme, M. and Choi, Y. J., 2020, Applied Deep Learning with Keras, Acorn Publishing Co.
  • Yu, J. S., 2010, A Study on the Relation between WECPNL and Lden as Domestic Aircraft Noise Assessment Unit- Focused on the Gimpo International Airport, Master’s Thesis, University of Seoul, Korea.
  • Kim, K. M. and Lee, B. C., 2021, A Comparative Analysis for Noise Damage Range or Military Airfields in Urban and Non-urban Areas, Journal of KSNVE, Vol. 31, No. 6, pp. 625~631. [https://doi.org/10.5050/KSNVE.2021.31.6.625]
  • Choi, S. E., 2021, A Comparative Study of Aircraft Noise Discrimination Using Machine Learning, Master’s Thesis, Yonsei University, Korea.

Soungcheol Yoon received his B.S., M.S. and Ph.D. degrees in Environmental Engineering from Yonsei University in 2011, 2019. He is currently working as a noise and vibration engineer in INERTANCE Inc. He responsibility of estimation & providing the engineering services in the form of noise study, structure borne noise analysis, etc.

Jinyi Leem received her B.S., and M.S. degree in the department of Nursing science from Yonsei University in 2003 and 2008. She is a noise and vibration engineer with certificate in South Korea, and has the responsibility of estimation & providing the engineering services in the form of noise study, rotor dynamics analysis, artificial intelligence, etc.

Chonwoo Jung received his B.S. degree in Environmental engineering from Yonsei University in 2003 and his M.S. degree in Architectural engineering from Hanyang University in 2008. He is a noise and vibration specialist with professional engineer certificate in South Korea, and has the responsibility of estimation & providing the engineering services in the form of noise study, rotor dynamics analysis, acoustic & flow induced vibration, pulsation study, HVAC noise & vibration, etc.

Fig. 1

Fig. 1
Perceptron(left), MLP(right)

Fig. 2

Fig. 2
Concept of CNN

Fig. 3

Fig. 3
Confusion matrix

Fig. 4

Fig. 4
Example of data

Fig. 5

Fig. 5
Example of preprocessing

Fig. 6

Fig. 6
Comparison of preprocessing

Fig. 7

Fig. 7
Configuration of AI model

Fig. 8

Fig. 8
Example of model error

Fig. 9

Fig. 9
Learning accuracy of AI model

Fig. 10

Fig. 10
Learning loss of AI model

Fig. 11

Fig. 11
Results of confusion matrix

Fig. 12

Fig. 12
Verification procedure for AI model

Table 1

Airport and characteristics

Airport Operating aircraft
A Jet engine
B Jet engine, turboprop
C Turboprop
D Turbofan
E Helicopter
F Jet engine
G Turboprop

Table 2

Model’s MLP code

Dense(128, activation=‘relu’)
Dense(72, activation=‘relu’)
Dense(72, activation=‘relu’)
Dense(32, activation=‘relu’)
Dense(1, activation=‘sigmoid’)

Table 3

Model’s LSTM code

Bidirectional(LSTM(128,
 return_sequences =True, activation=’relu’)
LSTM(128,
 return_sequences=True, activation=’relu’)
Dense(128, activation=‘relu’)
Dense(36, activation=‘relu’)
Dense(18, activation=‘relu’)
TimeDistributed(Dense(1, activation=’relu’))
Flatten()
Dense(1, activation=‘relu’)

Table 4

Model’s LSTM code

Conv2D(72, (3,3), padding=‘SAME’,
 activation=’relu’,
 kernel_initializer=’he_normal)
BatchNormalization()
MaxPooling2D(strides=(2,2),
 padding=‘SAME’)
Dropout(0.2)
Conv2D(72, (3,3), padding=‘SAME’,
 activation=’relu’,
 kernel_initializer=’he_normal)
BatchNormalization()
MaxPooling2D(strides=(2,2),
 padding=‘SAME’)
Dropout(0.2)
Conv2D(36, (3,3), padding=‘SAME’,
 activation=’relu’,
 kernel_initializer=’he_normal)
BatchNormalization()
MaxPooling2D(strides=(2,2),
 padding=‘SAME’)
Dropout(0.2)
Flatten()
Dense(1, activation=‘relu’)

Table 5

Comparison of combined model

Model MLP LSTM CNN MLP-LSTM MLP-CNN LSTM-CNN MLP-LSTM-CNN
Accuracy 0.9919 0.9921 0.9948 0.9911 0.9951 0.9951 0.9957
Loss 0.0278 0.0226 0.0165 0.0277 0.0164 0.0159 0.0153
Precision 0.9809 0.9859 0.9862 0.9826 0.9889 0.9892 0.9893
Recall 0.9885 0.9842 0.9939 0.9838 0.9926 0.9922 0.9943
F1 score 0.9847 0.9851 0.9901 0.9832 0.9907 0.9906 0.9918

Table 6

Verification of AI model

Classification Point 1
(86 4000 s)
Point 2
(86 4000 s)
Point 3
(86 4000 s)
Point 4
(86 4000 s)
Point 5
(86 4000 s)
Point 6
(86 4000 s)
Point 7
(86 4000 s)
WECPNL Engineer ① 66.37 71.93 68.90 67.82 64.21 46.36 51.35
AI model ② 66.33 71.94 68.90 68.62 66.02 45.76 51.28
Diff. (①-②) 0.04 0.01 0.00 0.80 1.81 0.60 0.07
Lden
(dB(A))
Engineer ① 52.18 56.02 54.15 53.22 50.42 33.10 40.46
AI model ② 52.05 55.96 54.04 53.32 50.53 32.32 39.98
Diff. (①-②) 0.13 0.06 0.11 0.10 0.11 0.78 0.48
Classification Point 8
(86 4000 s)
Point 9
(86 4000 s)
Point 10
(86 4000 s)
Point 11
(86 4000 s)
Point 12
(86 4000 s)
Point 13
(86 4000 s)
Point 14
(86 4000 s)
WECPNL Engineer ① 78.65 92.92 93.12 59.02 97.95 61.36 95.30
AI model ② 79.81 92.67 92.08 58.34 97.28 60.06 95.04
Diff. (①-②) 1.16 0.25 1.04 0.68 0.67 1.30 0.26
Lden
(dB(A))
Engineer ① 58.32 74.76 74.68 38.88 79.66 41.56 75.55
AI model ② 58.32 74.76 74.68 39.00 79.66 42.00 75.55
Diff. (①-②) 0.00 0.00 0.00 0.12 0.00 0.44 0.00