2021.06.25 - [Projects/Predictive Maintenance] - 예지보존(predictive maintenance) 모델 설계 방법
위 글처럼, 고장 데이터가 불충분한 경우에는 RUL(remaining useful life), classification 등의 예지보전 방법론을 사용하기에 한계가 있다.
하지만, 대다수의 실제 산업 현장에서 고장 데이터를 많이 확보하고 있는 경우는 거의 없다.
따라서, 이 경우, 시계열 센서 데이터를 미리 예측(forecasting)해, 예측한 데이터를 토대로 유지보수 시점을 판단하는 방식의 예지보전 시스템을 개발해야한다.
따라서, 현재까지 각각 CNN, RNN, LSTM, GRU layer와 FC layer만 있는 간단한 모델을 사용해 univariate/multivariate, single step/multi step time series forecasting model을 만들어보았다.
결과적으로, 위 간단한 모델로는 장거리 시계열 예측 (long sequence time series forecasting, LSTF)이 불가능했다.
구체적으로 말하자면, 현재 시점을 기준으로 이후 10개의 데이터 포인트를 예측하는 문제에서는 최대 0.80의 prediction accuracy를 보였으나, 데이터 포인트가 늘어날 경우, 급격한 성능 저하를 보였다.
1초마다 데이터가 수집되는 기계의 예지보전(predictive maintenance) 시스템을 개발한다면, 10개의 데이터 포인트는 10초로 환산된다. 단순히 10초 이후의 센서 데이터를 예측하는 것은 기계의 고장을 사전에 막는 예지보전 시스템의 목적을 달성하기 힘들다. (적어도 30분 이상의 데이터 경향성을 예측할 수 있을 때, 고장 징후를 사전에 파악하고 빠르게 유지보수를 진행할 수 있을 것이다)
그렇다면, raw데이터를 사용하지 않고, 데이터를 요약해 사용하면 되지 않는가라고 생각할 수 있겠다.
(10개의 데이터 포인트를 예측할 수 있으니, 1초당 데이터 포인트 60개를 함축해 1분 데이터를 만들어 10분을 예측하면 모델을 만들 수 있지 않을까?)
실제로, 긴 시계열의 시퀀스를 다루기 위해 데이터를 자르고, 요약해 특징을 추출하는 과정을 진행하는 연구들이 많았다.
하지만, 결과적으로 이 경우에는 어떤 요약 통계(summary statistics) (ex) mean/min/max/median/mode)를 사용하느냐에 따라 중요한 정보가 될 수 있는 정보가 손실되거나 오염될 가능성이 있으며, 정확한 예측 성능을 기대하기 어렵다.
따라서, 긴 길이의 시계열을 예측하는, 즉 더 먼 미래를 예측할 수 있는 long sequence time series forecasting (LSTF) 모델이 필요하다
2017년에 Google은 Transformer라는 RNN을 사용하지 않고 attention만으로 encoder-decoder 구조를 따르면서 RNN보다 우수한 성능을 보이는 모델을 공개하며, 시계열 예측 모델로서의 잠재력이 있는 모델로 각광을 받았다.
하지만, Transformer 모델은 장기간의 시계열을 예측하는 문제(LSTF)에 적용하기에, 제곱 계산 복잡도(quadratic time complexity), 높은 메모리 사용량(high memory usage), 그리고 encoder-decoder 모델 구조에서 사용하기에 한계가 있다는(inherent limitation of the encoder-decoder architecture) 문제가 있었다.
이를 보완한 것이 efficient Transformer 기반의 모델 Informer이며, 현재 Informer를 적용하기 위해 논문/코드 이해를 진행중이다. (2021/6/30~)