스노우플레이크(Snowflake)가 업계 최고 수준의 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(Large Language Model, 이하 LLM) '스노우플레이크 아크틱(Snowflake Arctic)'을 24일 출시했다.
동급 최고 성능·효율 갖춘 개방형 LLM
아파치 2.0 라이선스 기반 오픈소스 모델
스노우플레이크가 오픈소스 기반 '아크틱'을 데이터 클라우드 플랫폼에 추가했다. 스노우플레이크의 고객들은 업계 최고 수준의 개방성을 제공하는 LLM을 통해 데이터를 활용할 수 있게 된다.
스노우플레이크(Snowflake)가 업계 최고 수준의 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(Large Language Model, 이하 LLM) '스노우플레이크 아크틱(Snowflake Arctic)'을 24일 출시했다.
스노우플레이크는 "자사의 고유의 전문가혼합(MoE, Mixture-of-Experts) 방식으로 설계된 아크틱은 동급 최고 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다"고 소개했다.
아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다.
아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다.
스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스다. 허깅페이스(Hugging Face), 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.
스노우플레이크 AI 연구팀은 3개월 미만의 기간 내 아크틱을 구축했다. 모델 학습에는 아마존 일래스틱 컴퓨트 클라우드(Amazon Elastic Compute Cloud, Amazon EC2) P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다고 설명했다.
또한 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상할 수 있다. 4,800억 개의 매개 변수를 한 번에 17개씩 활성화할 수 있다.
스노우플레이크는 "아크틱은 DBRX보다 약 50%, Llama 3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(HumanEval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, Mixtral-8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가함과 동시에 일반 언어 이해(MMLU, 대규모 다중 작업 언어 이해)에서 최상급 성능을 보인다"고 말했다.
슈리다 라마스워미(Sridhar Ramaswamy) 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.