혁신적인 제조를 책임지는 인공 지능과 빅데이터

자동화된 최신식 제조 방식에도 불구하고 최적화 잠재력이 남아있다. 이제 유휴 시간과 비용을 줄이기 위해 기계 학습과 빅데이터를 활용해야 한다.

다니엘 메츠거(Daniel Metzger)

핵심 내용

  • 생산과정에 빅 데이터를 활용하려면 몇 가지 유의할 사항이 있다.
  • 먼저 정보 기술의 혁신 속도와 공장 프로세스 자동화가 조화를 이루어야 한다.
  • 전통적인 솔루션은 현재의 측정값과 이력 데이터 간의 상관관계를 분석할 수 있지만, 이벤트에 따라 임계 값을 조정하지는 못한다.
  • 여러 소스에서 나오는 타임스탬프가 부여된 데이터를 실시간으로 처리할 수 있어야 한다.

생산 과정이 산업용 사물인터넷과 에지 컴퓨팅을 통해 유연해지고, 수익성도 개선되고 있다. 이러한 핵심 기술을 사용하면 생산 과정을 실시간으로 모니터링하고 제어할 수 있다. 하지만 생산 과정에서 기계 또는 운반 프로세스의 기술적 결함으로 인해 가동 중단에서 벗어나지 못하고 있다.

기계 학습은 비용을 낮출 기회를 제공한다

생산 과정에서 비용을 최소화하기 위해서는 빅데이터와 기계 학습을 활용할 수 있다. 빅데이터 분석을 통해 기계 학습 트레이닝 모델을 최적화하고 고장 확률을 예측하여 개선할 수 있는데, 이를 예측 유지 보수(Predictive Maintenance)라 한다. 기계 학습은 제품의 품질 보장에도 이용할 수 있다. 아직까지도 품질은 전통적인 자동화 검사법이나 수동 검사를 통해 이루어지고 있어, 기계 학습이나 그와 결부된 불량 감지 개선을 통해 비용을 줄일 수 있는 잠재력이 남아있다.

예측 유지보수 외에 기계 학습은 다방면으로 사용 가능하고, 제조되는 제품의 품질 보장에도 적합하다.

Cloudera의 빅데이터처럼 지능형 제조에 사용하는 빅데이터 시스템은 오픈 소스에 기반하는 경우가 많다. 이러한 시스템을 이용한 가능성은 매우 다양하다. 예를 들어 빅데이터 시스템은 센서 데이터를 예측적으로 분석하여 비용을 낮추는 데 큰 역할을 하며 품질과 효율 증대에 기여한다. 많은 기업들이 품질 보장을 위해 추가 비용을 감수하고 있다. 이러한 비용은 전체 매출액의 최대 20%에 이르며, 한 조사에 의하면 생산 라인의 중단으로 입은 피해액이 약 500억 USD(원화로 약 60조 원)에 달한다. 이는 충분히 피할 수 있는 비용이다.

일반적으로 센서에 의해 분산 수집된 데이터는 이른바 에지 노드로 전달되는 에지 컴퓨팅 모델을 사용한다. 인공 지능을 통해 사전 평가가 이루어지고, 그에 대해 Edge2AI 개념이 형성된다. 그곳에서 정보를 데이터 센터로 보내기 전에, 정보의 첫 번째 사전 처리와 데이터 통합이 이루어진다. 이 모델의 장점은 데이터 센터의 자원이 필요 이상의 상세 데이터로 과부하 되지 않고, 데이터 전송 능력이 고갈되지 않는다는 점이다. 사물인터넷이 가능한 장치의 데이터는 소스에서 Apache Minifi(콤팩트한 Edge Agent, Edge에서 데이터 수집과 처리에 집중)를 기반으로 하는 Edge 매니지먼트를 거쳐 직접 수집된다. 이후 데이터의 전달과 변환 그리고 보강되는 흐름을 통해 추가 가공이 이루어진다. 이 정보는 데이터 흐름과 가공을 위한 오픈 소스 베이스 소프트웨어인 Apache Kafka와 Apache Hadoop(오픈 소스, 자바 기반 대량 데이터 가공을 위한 소프트웨어 프레임워크, 특히 빅데이터 환경에 응용)를 기반으로 메인 데이터 메모리 및 프로세스 솔루션으로 유입된다.

스마트 공장에서 사용하는 시스템은 오픈 소스에 기반하는 경우가 많다. 그로 인해 품질과 효율성은 증대되고 비용은 낮아진다.

다양한 소스의 데이터가 통합된다

데이터가 Kafka 등에서 이동하는 한, Apache Flink(실시간으로 데이터 흐름을 연속적으로 가공할 수 있게 하는 프레임워크) 또는 Apache Spark 스트리밍(연속적인 데이터 흐름을 가공하는 Apache Spark의 구성 요소)을 실시간 분석을 위해 사용할 수 있다. 이어 많은 생산 공장과 수집 위치에서 나오는 데이터는 데이터 웨어하우징과 복잡한 변환을 위해 데이터 웨어하우스와 데이터 엔지니어링 옵션을 통해 Apache Hive 또는 Apache Impala(Hadoop 클러스터에서 SQL 쿼리를 용이하게 하는 두 도구)와 Apache Spark(분산된 대량의 데이터를 빠르고 효율적으로 분석할 수 있는 오픈 소스 제품)를 기반으로 통합된다.

실질적인 데이터 플랫폼의 부가가치는 기계 학습으로 시작되며, 이 기계 학습을 통해 예측 모델을 만들 수 있다. 예측 모델은 실시간 측정을 기반으로 생산 라인에서 부품 품질이 떨어지는 시점을 예측한다. 추가로 이 모델을 다시 센서 조직에 편입시켜 이 예측을 실시간으로 실행할 수 있다. 이는 개방형 표준을 기반으로 하는 오픈 소스이며, 규모 가변적인 데이터 가공에 대한 IT 업계의 합의이다. 추가로 이 기술은 쿠버네티스를 이용하여 현장뿐만 아니라 Microsoft Azure, AWS 또는 Google Cloud와 같은 대형 클라우드 공급자의 플랫폼 상에서 유연하게 이용할 수 있다.

기업들이 빅데이터 기술을 생산 과정에 활용하면 몇 가지 과제가 생긴다. 우수한 기업 플랫폼으로 이를 제어할 수 있다.

해결해야 할 과제가 크다

하지만 빅데이터 기술을 이용할 경우 해결해야 할 과제가 있다. 정보 기술의 혁신 속도와 공장의 프로세스 자동화 기술이 조화를 이루어야 한다. 그뿐만이 아니다. 기존의 솔루션은 개별적인 프로세스에만 방향이 맞춰져 있고, 현재 측정값들과 이력 데이터를 관련짓지 못하기 때문에 단순히 임계 값을 조정하거나 이벤트에 따라 조정하는 것이 불가능하다. 또 다른 과제는 각기 다른 소스에서 나오는 타임스탬프가 다른 데이터를 실시간으로 처리해야 하는 것이다. RDBMS(Relations Database Management)는 생산 현장의 모든 시스템에서 나오는 모든 데이터를 저장하고, 소스에서 데이터 값을 줄여, 기업 플랫폼에 안전하게 연결하는 방식으로 해법을 제공한다. 다시 말해 이동하는 데이터를 위한 분산 운영 시스템과 데이터 파이프라인의 각 위치에서 문제를 해결할 수 있는 데이터 분석으로 접근하는 것이다.

또 다른 측면은 데이터 관리와 보안이다. 데이터 플랫폼은 특히 생산 품질 관리에 맞추어져 있다. 중요한 점은 플랫폼이 없으면 세그먼트 별 솔루션이 존재할 수 없고, 확장 가능한 엔드-투-엔드 플랫폼이 없으면 어느 솔루션도 복잡한 모델을 빠르게 개발하고 확장할 수 없다는 사실이다. 여기서 데이터는 Python, Scikit-learn, R, Scala 및 SparkMLrhk 같은 최신 프로그래밍 프레임 워크 및 기계 학습 프레임 워크의 가능성과 Keras 및 Tensorflow의 모든 변형을 직접 플랫폼 내에서 CML을 통해 활용할 수 있다.

생산자들은 더 이상 현대화를 피할 수 없을 것이다. 이것이 경쟁력을 유지할 수 있는 유일한 방법이기 때문이다.

일관된 발전

새로운 기술을 도입할지 말지는 기업마다 의견이 다를 수 있다. 새로운 기술 도입을 얼마나 빠르게 진행할지를 결정하는 것은 지역적 관점 보다 시장 점유율 차이라 할 수 있다. 고객들은 제조 부문에서 고품질을 기대하지만 규제 때문에 위험을 감수해야 하는 이점은 제한적이다. 이제 생산자들은 공정의 신뢰성과 효율성이 장기적인 성공과 시장에서의 생존을 결정하기 때문에 더 이상 생산 현대화를 피할 수 없게 되었다.

MM 데이터 분석

생산을 위한 데이터 분석 응용

생산 과정에서 데이터 분석을 사용하는 목적은 품질 보장, 처리량 최적화 납품 최적화 등 3가지이다.

품질 보장 – 컴퓨터 비전은 이미지를 포착하고 처리하여 분석하는 인간의 능력을 모방한다. 이 기술은 육안 검사를 실행하기 위해 생산에 자주 이용되며, 이런 방식으로 제조 공정의 각 단계에서 오류를 방지하고, 고객 만족도를 높인다.

처리량 최적화 – 생산 처리량이 최적화되면 수익성이 높아지고 동시에 제조사가 생산 일정을 준수하여 공급 업체와 보조를 맞추는 데에 큰 도움이 된다. 하지만 인력과 장비 또는 재고와 같은 수많은 변수의 영향을 받기 때문에 ‘병목 현상’을 제때 식별할 수 없다. 데이터와 데이터 분석 그리고 그로부터 도출되는 알고리즘을 이용하여 병목을 조기에 감지하고 대응 조치를 취할 수 있다.

납품 최적화 – 공급 부분에서 데이터 분석은 재고와 관련하여 투명성을 유지하고 온도에 민감한 제품을 모니터링하고, 실시간 재고 최적화 같은 복잡한 프로세스를 구현할 수 있다. 이를 위해 일정 기간에 대한 재고 데이터를 수집하고 선별해야 한다. 그리고 과거 재고 데이터를 다양한 컨텍스트 변수(클릭 스트림, POS 데이터, 창고 위치, 날씨)와 연결해야 하며, 기계 학습 모델이 중요한 변수를 식별하여 실시간으로 모니터링할 수 있다.