AI 컴퓨팅 기술 분야의 선두주자인 엔비디아(CEO 젠슨 황)가 AI 챗봇의 안전장치를 추가한 생성형 AI 오픈 소스 소프트웨어를 출시하며, 새로운 종류의 AI 기반 애플리케이션을 안전하게 보호할 수 있도록 돕는다.
AI 챗봇 안전장치 추가 지원, 안전·보안 요구사항 유지
AI 컴퓨팅 기술 분야의 선두주자인 엔비디아(CEO 젠슨 황)가 AI 챗봇의 안전장치를 추가한 생성형 AI 오픈 소스 소프트웨어를 출시하며, 새로운 종류의 AI 기반 애플리케이션을 안전하게 보호할 수 있도록 돕는다.
엔비디아는 생성형 AI 애플리케이션의 인상적인 고품질 텍스트 응답 생성을 지원하는 오픈 소스 소프트웨어 엔비디아 네모 가드레일(NVIDIA NeMo Guardrails)을 출시했다고 26일 밝혔다.
네모 가드레일은 대규모 언어 모델(LLM)로 구동되는 스마트 애플리케이션의 정확성, 적절성, 관련성, 안전성 확인을 돕는다. 또한 네모 가드레일에는 기업이 텍스트 생성 AI 앱에 안전성을 추가하는 데 필요한 모든 코드, 예제, 문서가 포함된다.
이번 네모 가드레일 출시 배경에는 AI 앱의 강력한 엔진인 LLM이 업계 전반에서 채택되고 있는 상황이 반영됐다. LLM은 고객의 질문에 응답, 긴 문서 요약, 소프트웨어 작성, 신약 설계 가속화까지 폭넓게 활용되고 있다.
네모 가드레일은 사용자가 이러한 새로운 종류의 AI 기반 애플리케이션을 안전하게 보호할 수 있도록 설계됐다.
생성형 AI의 안전은 업계 전반의 관심사다. 엔비디아의 네모 가드레일은 오픈AI(OpenAI)의 챗GPT(ChatGPT)와 같은 모든 LLM과 함께 작동하도록 설계됐다. 네모 가드레일을 통해 개발자는 LLM 기반 앱을 안전하게 조정하고 회사의 전문 영역 내에 머물도록 할 수 있다.
개발자는 네모 가드레일을 통해 세 가지 종류의 경계를 설정할 수 있다.
우선 토피컬 가드레일(Topical guardrails)은 앱이 원치 않는 영역으로 이탈하는 것을 방지한다. 예를 들어, 고객 서비스 도우미가 날씨에 대한 질문에는 답변하지 못하도록 방지한다.
세이프티 가드레일(Safety guardrails)은 앱이 정확하고 적절한 정보로 응답하도록 보장한다. 원치 않는 언어를 필터링하고 신뢰할 수 있는 출처만 언급하도록 강제할 수 있다.
시큐리티 가드레일(Security guardrails)은 앱이 안전한 것으로 알려진 외부 서드파티 애플리케이션에만 연결하도록 제한한다.
네모 가드레일을 사용한다면 머신 러닝 전문가나 데이터 과학자가 아니더라도 거의 모든 소프트웨어 개발자는 몇 줄의 코드만으로 새로운 규칙을 빠르게 생성할 수 있다.
네모 가드레일은 오픈 소스이므로 엔터프라이즈 앱 개발자가 사용하는 모든 도구에서 작동할 수 있다.
예를 들어 네모 가드레일은 개발자들이 타사 애플리케이션을 LLM에 연결하기 위해 빠르게 채택하고 있는 오픈 소스 툴킷인 랭체인(LangChain)에서 실행할 수 있다.
또한 네모 가드레일은 재피어(Zapier)와 같은 광범위한 LLM 지원 애플리케이션과 함께 작동할 수 있도록 설계됐다. 재피어는 2백만 개 이상의 기업이 사용하는 자동화 플랫폼으로, 사용자가 업무에 AI를 통합하는 방법을 직접 확인했다.
엔비디아는 엔비디아 네모 프레임워크에 네모 가드레일을 통합하고 있다. 엔비디아 네모 프레임워크는 사용자가 회사의 독점 데이터를 사용해 언어 모델을 훈련하고 튜닝하는 데 필요한 모든 것을 포함한다.
네모 프레임워크의 대부분은 이미 깃허브(GitHub)에서 오픈 소스 코드로 제공되고 있다. 기업의 경우, 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼의 일부인 완전한 지원 패키지로 제공받을 수도 있다.
네모는 서비스로도 제공되며, 자체 데이터 세트와 도메인 지식을 기반으로 맞춤형 생성 AI 모델을 만들고 실행하려는 기업을 위한 클라우드 서비스 제품군인 엔비디아 AI 파운데이션의 일부이다.