레드햇이 생성형 AI 모델을 원활하게 개발·테스트·배포할 수 있도록 지원하는 파운데이션 모델 플랫폼인 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'의 정식 출시를 발표했다.
RHEL AI은 그래니트 LLM(Granite LLM, 대규모 언어 모델) 제품군과 LAB(Large-scale Alignment for chatbot, 챗봇을 위한 대규모 정렬) 방법론에 기반한 인스트럭트랩(InstructLab) 모델 정렬 도구를 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징 되어 있다.
레드햇은 RHEL AI가 생성형 AI에의 접근성과 가용성을 높여준다는 점을 강조했다. 설명에 따르면 LLM을 조달 및 훈련, 미세 조정하는 데에는 천문학적인 비용이 발생한다. 일부 주요 모델의 경우 출시 전 훈련 비용만 약 2억 달러에 달한다. 조직의 특정 데이터 및 요구사항에 맞게 조정하는 과정에서 추가 비용이 발생할 수 있다.
레드햇은 향후 10년 동안 더 작고, 효율적이며, 목적에 맞게 구축된 AI 모델들이 클라우드 네이티브 애플리케이션과 함께 엔터프라이즈 IT 스택의 상당 부분을 차지할 것으로 본다며, 이를 위해서는 하이브리드 클라우드 전반에서 실행될 수 있도록 함으로써 생성형 AI의 접근성과 가용성을 높여야 한다고 강조했다.
레드햇은 하이브리드 클라우드 전반에서 기업 IT 조직이 생성형 AI의 접근성을 높이면서, 효율적이고 유연하게 활용할 수 있도록 지원하는 RHEL AI 활용 사례로 다음을 제시했다.
– 엔터프라이즈급 오픈소스 라이선스를 보유한 그래니트 모델을 통해 생성형 AI 혁신을 강화하고, 다양한 생성형 AI 사용 사례에 맞게 조정한다.
– 인스트럭트랩 도구를 통해 생성형 AI 모델을 비즈니스의 요구사항에 맞게 간소화하여, 조직 내 도메인 전문가와 개발자가 광범위한 데이터 과학 기술 없이도 고유한 기술과 지식을 제공할 수 있도록 지원한다.
– 프로덕션 서버용 모델을 조정하고 배포하는 데 필요한 모든 도구를 제공해 하이브리드 클라우드 전반에서 생성형 AI를 학습하고 배포할 수 있다. 또한 RHEL AI는 레드햇 오픈시프트 AI(Red Hat OpenShift AI)로 손쉽게 전환할 수 있는 온램프(on-ramp)를 제공한다.
레드햇 파운데이션 모델 플랫폼 부문 부사장 및 총괄 조 페르난데스는 “RHEL AI는 데이터 과학자뿐만 아니라 도메인 전문가들에게도 하이브리드 클라우드 전반에 걸쳐 목적에 맞게 구축된 생성형 AI 모델에 기여할 수 있는 기능을 제공하며, 동시에 IT 조직이 레드햇 오픈시프트 AI를 통해 이러한 모델을 프로덕션용으로 확장할 수 있도록 지원한다”라고 설명했다.
IDC 데브옵스 및 데브섹옵스 소프트웨어 개발 부문 부사장 짐 머서는 “더 작고, 목적에 맞게 구축되고, 더 광범위하게 액세스할 수 있는 모델은 훨씬 더 광범위한 사용자와 조직에서 AI 전략을 더 쉽게 달성할 수 있게 해준다. 이것이 바로 레드햇이 파운데이션 모델 플랫폼으로서 RHEL AI를 통해 목표로 하는 영역”이라고 말했다.
RHEL AI는 현재 레드햇 고객 포털을 통해 온프레미스에서 실행하거나 AWS 및 IBM 클라우드에 업로드해 사용할 수 있다. 애저(Azure) 및 구글 클라우드에서의 BYOS(Bring Your Own Subscription) 오퍼링은 2024년 4분기에 제공될 예정이며, IBM 클라우드에서도 올해 말에 서비스 형태로 RHEL AI를 사용할 수 있을 것이다. 레드햇은 몇 달 내에 RHEL AI 클라우드 및 OEM 파트너의 범위를 더욱 확장해 하이브리드 클라우드 환경 전반에서 더 많은 선택권을 제공할 예정이라고 밝혔다. dl-ciokorea@foundryco.com