2022-11-22 10:30~12:00
STMicroelectronics / 문현수 과장
박*춘2022-11-22 오전 10:47:38
기존 STM32CubeMX와 STM32Cube.AI 차이점이 무엇인가요???ST52022.11.22
다른 형태의 개발툴입니다.조*문2022-11-22 오전 10:47:26
NanoEdgeAI Studio 학습예제를 지금 보니까 Abormally detection은 단순하기 1/0을 구분하는것 같은 (binary cllasification 같은) 어플리케이션 같군요.. 맞나요?ST12022.11.22
네 Binary classification과 같은 개념이지만 NanoEdgeAI 만의 특별한 ML 노하우가 적용되어 있습니다.ST12022.11.22
추론결과는 확율로 나옵니다. (0 ~ 100%).조*우2022-11-22 오전 10:47:21
ST에서는 가속 엔진칩에 대해서 계획이 있으신가요? AI자체가 많은 Computation Power를 요구하고 있어서요...ST12022.11.22
NN 가속 하드웨어 관련 기능을 탑재한 MCU를 준비중에 있습니다.홍*기2022-11-22 오전 10:46:34
Face Recognition 설명에는 ST에서 판매하는 카메라 모듈로 설명이 되어있는데, 카메라 모듈에 따라 불가능할수도 있는지 궁금합니다.ST12022.11.22
STM32 MCU에서 지원하는 DCMI 인터페이스를 사용하는 카메라는 사용이 가능합니다.김*식2022-11-22 오전 10:46:30
STM32Cube.AI 지원하는 STM32계열 하드웨어기반 얼굴인식 솔루션을 개발, 상용화하여 제품 판매시 추가 비용을 지불해야하는 요소가 있는지 궁금합니다.ST12022.11.22
ST에서 제공하는 예제의 경우 추가 비용은 없습니다.정*수2022-11-22 오전 10:46:29
NanoEdgeAIStudio 로 학습시킨 최종 결과물은 소스코드로 나오는가요?ST12022.11.22
C code 형태의 라이브러리로 변환되며, API 호출을 통해 추론을 진행하시면 됩니다.조*문2022-11-22 오전 10:46:14
NanoEdgeAI Studio에서 Anormally detection을 구현한다고 가정했을때 (어떤형태인지 몰라도)abnormal signal을 입력해주면 학습이 알아서 자동으로 되나요?(transfer learning 개념을 생각하면 되나요?)ST32022.11.22
네 맞습니다. Anormal 시그날과 Normal시그날을 입력해주실 수 있으며, 상황에 따라 Normal시그날만 입력해서 학습을 진행할 수도 있습니다. Normal시그날만 입력할 경우 Normal을 벗언나 모든 상황에서 Anomal로 인식하게 됩니다.임*수2022-11-22 오전 10:45:55
NanoEdgeAI Studio를 이용해서 Object Activity에 대한 구현도 가능할까요? (예로 물체가 가만히있거나 빠르게 움직이거나 느리게 움직이거나 갑지기 뒤집어지거나 하는등등)ST52022.11.22
가능 할 것 같습니다.이*하2022-11-22 오전 10:45:54
양자화모델 포팅할때, input,output type이 int8인 모델도 포팅 가능한가요? 포팅이 가능하면, 에러율이 어느정되 되나요?ST12022.11.22
네 포팅이 가능합니다. 에러율 관련해서는 STM32Cube.AI 툴이 기존 모델과 변환된 모델의 정확도를 비교하여 툴에 표시해줍니다.이*혁2022-11-22 오전 10:45:48
혹시 컨버터, 인버터 같은 전력변환기에도 AI 적용한 이력이 있을까요??ST12022.11.22
ST에도 모터 Control 상황에서 비정상/정상 예측하는 데모를 개발한 적이 있으며 몇개의 회사에서 위와 같은 기능을 탑재한 제품을 기획중으로 알고 있습니다.ST32022.11.22
정확한 내용은 확인이 필요하나 PV/Solar Panel등의 Applicaiton에 Arc Fault detection용으로 적용중인 사례는 있습니다.[열린보도원칙] 당 매체는 독자와 취재원 등 뉴스이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알려드립니다.
고충처리인 강정규 070-4699-5321 , news@e4ds.com