2030년 25억개의 장치 출하로 급속한 성장이 예상되는 딥 엣지에 대해 마테오 마라비타 ST AI 센터장의 견해를 들어보는 자리를 마련했다.
“딥 엣지, AI 한계 극복·지속 성장”
2030년 25억개 예상, 독립형·저전력형·임베디드 급속 성장
낮은 대역폭·정보 보호·지연시간 감소·전류 소비 로컬 조정
최근 대중매체에서는 다양한 분야에 대해 여러 흥미로운 솔루션을 제시하고 있다. 그중 가장 진보된 최신 기술로 인공 지능(AI)이 많이 언급되고 있다.
사실 AI는 지난 50년대에 이미 구상됐던 개념으로 컴퓨터가 인간 행동을 모방하도록 지원하는 모든 기술이 AI다. 이 개념은 매우 일반적이며 다양한 연구와 솔루션 영역을 다룬다.
AI의 하위 분야로는 데이터 학습을 통해 시간 경과에 따라 향상되는 알고리즘과 방법론인 머신 러닝이 있다.
또한 그 하위 분야인 딥 러닝은 데이터만 이용하는 것이 아니라 의사결정을 위해 인간두뇌의 신경망 모방 구조를 사용하기 때문에 가장 복잡한 고급 AI 알고리즘이다.
반면에 변수가 너무 많거나 효과적인 애플리케이션 모델을 만들기가 매우 어렵기 때문에 이 알고리즘의 정의는 매우 복잡하다. 이 지점에서 머신러닝이 새로운 기회를 열어주고 있다.
현재 AI 기술은 다양한 분야에 활용되고 있다. 자율주행 자동차는 가장 잘 알려진 AI 구현 방식이며, 충격 측정 알고리즘을 적용해 침입을 감지하는 스마트 홈, 예측 유지보수를 구현하는 스마트 산업, 예측 및 실제 인원 수를 기반으로 환경을 조절해 에너지를 절약하는 스마트 빌딩, 고객의 선호도와 관심 및 행동을 분석하는 광고 엔진 등 데이터를 수집하는 모든 분야에서 AI의 적용사례는 끝이 없다.
하지만 이러한 AI도 한계가 있다.
클라우드에서 실행되는 AI 알고리즘을 사용하는 중앙 집중식 접근법의 경우, 중간 분석 없이 센서에서 클라우드로 데이터를 제공한다.
이 경우 데이터가 여러 장치, 게이트웨이, 네트워크, 회사를 통해 전달되기 때문에 보안의 문제가 발생한다.
노드에서 클라우드까지 대기 시간이 상대적으로 길기 때문에 응답성도 떨어진다.
대역폭이 높고 상당한 양의 전력을 소비하는 센서 노드 때문에 효율성의 문제도 발생한다.
그 한계를 극복할 수 있는 방안이 바로 ‘딥 엣지(Deep Edge)’다.
딥 엣지는 컴퓨팅과 서비스를 클라우드에서 네트워크 가장자리로 분산시켜준다.
호스트 마이크로컨트롤러나 센서 자체의 노드에 점점 더 많은 인텔리전스를 포함시켜 노드가 직접 결정을 내릴 수 있고 응답성이 향상된다. 이로 인한 이점은 다음과 같다.
첫째, 낮은 대역폭을 소비한다. 모든 원시 데이터가 클라우드로 직접 전송되지 않으므로 대역폭 요건이 훨씬 간편해지며 효율성을 극대화시킨다.
둘째, 정보 보호가 용이하다. 데이터가 반드시 다른 네트워크를 통과하지 않아도 되고 로컬 영역에서 처리되므로 안전성이 보장된다.
셋째, 지연 시간이 감소된다. 중앙 통신 없는 실시간 소통을 통해 1초가 중요한 일촉즉발의 상황에서 빛을 발한다. 이러한 반응성은 실시간 애플리케이션의 성공적 실행에 아주 중요한 역할을 한다.
넷째, 센서나 센서 노드의 전류 소비를 로컬로 조정할 수 있다. 이 기능은 배터리 구동 애플리케이션에서 특히 유용하다.
이러한 딥 엣지 AI 장치의 전 세계 출하량은 2030년까지 25억개로 예상된다.
특히 독립형, 저전력형, 비용 효율적 임베디드 솔루션에서 딥 엣지 AI 기술은 급속하게 성장 중이다.
딥 엣지 AI 분야를 주도하고 있는 ST마이크로일렉트로닉스는 상태 모니터링, 오디오 및 감지, 컴퓨터 비전 이 세 가지 부문에서 딥 엣지 AI의 지속적인 성장을 전망하고 있다.
반면에 각 부문에서 사용되는 AI 아키텍처나 컴퓨팅 성능 등 그 요건은 매우 다르다.
따라서 AI의 실질적 구현을 위해서는 스마트 센서부터 주요 툴, 에코시스템까지 광범위한 솔루션과 전문성이 필수적이다.
이러한 딥 엣지 기술은 1나노를 다투는 반도체 시장에서 우위를 선점할 수 있는 핵심 방안이 될 것이다.
※ 본 글은 ST마이크로일렉트로닉스의 마테오 마라비타(Matteo Maravita) AI Competence Center(AI 역량센터) 센터장의 기고입니다.