매스웍스는 매트랩, 시뮬링크에 새로운 기능이 추가된 릴리스 2018b를 발표했다. 이번 릴리스에는 제품군 전체에 걸쳐 딥러닝에 대한 업데이트 및 버그 수정이 포함됐다. 뉴럴 네트워크 툴박스를 대체하는 신규 딥러닝 툴박스는 딥뉴럴 네트워크를 설계하고 구현하기 위한 프레임워크를 제공한다. 영상 처리, 컴퓨터 비전, 신호 처리 및 시스템 관련 엔지니어는 매트랩을 사용하여 복잡한 네트워크 아키텍처를 보다 쉽게 설계하고 딥러닝 모델의 성능을 향상시킬 수 있다.
딥러닝에 대한 업데이트 및 버그 수정 포함
딥뉴럴 네트워크 설계 위한 프레임워크 제공
GPU 코더, 엔비디아 라이브러리 지원
매스웍스는 19일, 매트랩(MATLAB) 및 시뮬링크(Simulink)에 새로운 기능이 추가된 릴리스 2018b(이하 R2018b)를 발표했다. 이번 릴리스에는 제품군 전체에 걸쳐 딥러닝에 대한 업데이트 및 버그 수정이 포함됐다. 뉴럴 네트워크 툴박스(Neural Network Toolbox)를 대체하는 신규 딥러닝 툴박스(Deep Learning Toolbox)는 딥뉴럴 네트워크를 설계하고 구현하기 위한 프레임워크를 제공한다. 영상 처리, 컴퓨터 비전, 신호 처리 및 시스템 관련 엔지니어는 매트랩을 사용하여 복잡한 네트워크 아키텍처를 보다 쉽게 설계하고 딥러닝 모델의 성능을 향상시킬 수 있다.
매스웍스는 R2018b에서 다음을 통해 사용자 생산성과 사용 편의성을 향상시켰다.
딥 네트워크 디자이너(Deep Network Designer) 앱은 사용자가 복잡한 네트워크 아키텍처를 만들거나, 전이 학습을 위해 미리 학습된 복잡한 네트워크를 수정할 수 있다.
네트워크 학습 성능을 데스크탑 기능 이상으로 향상했다. 엔비디아 GPU 클라우드의 매트랩 딥 러닝 컨테이너(Deep Learning Container) 및 아마존웹서비스와 마이크로소프트 애저(Microsoft Azure)용 매트랩 참조 아키텍처를 사용하여 클라우드 공급업체를 지원한다.
도메인별 워크플로에 대한 폭넓은 지원: 오디오, 비디오 및 애플리케이션별 데이터 저장소에 대한 지상 실측 레이블 지정 작업 앱을 포함하여 대규모 데이터 수집 작업을 보다 쉽고 빠르게 수행할 수 있다.
R2018b에서 GPU 코더(GPU Coder)는 엔비디아 라이브러리를 지원하고 자동 튜닝, 레이어 융합 및 버퍼 최소화와 같은 최적화 기능을 추가하여 추론 성능을 향상시켰다. 또한, 인텔 MKL-DNN 및 ARM 컴퓨트 라이브러리(Compute Library)를 사용하여 인텔과 ARM 플랫폼에 대한 배포 지원을 추가했다.
매스웍스는 최근 ONNX 커뮤니티와 함께 상호 운용성에 대한 의지를 보여줌으로써 매트랩 사용자와 다른 딥러닝 프레임워크 간의 협업을 가능하도록 지원하고 있다. 엔지니어는 R2018b의 신규 ONNX 변환기를 사용하여 파이토치(PyTorch), MxNet 및 텐서플로(TensorFlow)와 같은 지원 프레임워크에서 모델을 가져오고 내보낼 수 있다. 이러한 상호 운용성을 통해 매트랩에서 학습한 모델을 다른 프레임워크에서 사용할 수 있으며, 마찬가지로 다른 프레임워크에서 학습한 모델을 매트랩으로 가져와 디버깅, 유효성 검사 및 임베디드 배포와 같은 작업을 수행할 수 있다. 또한, R2018b는 단 한 줄의 코드로 액세스할 수 있는 선별된 참조 모델 세트를 제공하며, 추가 모델 임포터는 카페(Caffe)와 케라스-텐서플로(Keras-Tensorflow)의 모델을 사용할 수 있다.
매스웍스의 매트랩 마케팅 디렉터인 데이비드 리치(David Rich)는 "여러 산업 분야에 딥러닝이 널리 보급됨에 따라 다양한 전문 분야의 엔지니어와 과학자는 이를 폭넓게 사용, 액세스 및 적용할 수 있어야 한다"며 "이제는 딥러닝 초보자와 전문가가 연구에서 프로토타입과 제작에 이르기까지 통합된 딥러닝 워크플로를 사용하여 매트랩으로 고급 연구를 학습, 적용 및 수행할 수 있다"고 강조했다.