래블업이 오픈소스 거대 언어 모델을 자사 AI 플랫폼을 통해 파인튜닝하고 서비스하는 과정을 자동화하는 기능과 데모를 선보였다.
GPU 리소스를 최적화해 활용할 수 있도록 돕는 AI 기업 래블업은 8월 11~13일 개최된 파이콘 한국 2023에서 이 같은 서비스 데모를 통해 참석한 개발자들을 사로잡았다고 밝혔다.
최근 메타(Meta)에서 공개한 라마 2(Llama2) 모델을 포함한 다양한 오픈소스 거대 언어 모델들을 백엔드닷AI(Backend.AI)의 자동화 시스템인 패스트트팩(FastTrack)을 통해 한국어에 맞추어 미세조정하는 걸 시연했다. 래블업이 보유중인 NVIDIA H100 클라우드 팜에서 라마2를 12시간 만에 파인 튜닝한 모델로 즉석에서 서비스로 만든 챗봇을 전용 UI를 통해 서비스해 많은 참가자들의 주목을 받았다.
백엔드닷AI는 ▲GPU 클러스터 활용도 극대화, ▲직관적인 사용자 경험 및 관리, ▲저비용/저지연 AI 모델 및 서비스 기술, ▲다양한 AI 반도체 지원 등을 바탕으로 다양한 AI 개발 및 서비스 분야를 선도하는 기능을 제공하고 있다.
래블업은 이번 거대 언어 모델 활용, 파인 튜닝과 서비스 자동화 기능 공개를 통해, 다양한 업무 자동화와 연구, 프로그래밍 코드 개발 등의 본격적인 생성형 AI 분야에 백엔드닷AI를 활용할 수 있다는 걸 입증했다.
현재 일부 백엔드닷AI 고객사들을 대상으로 베타 테스트 중인 거대 언어 모델 통합 기능은 9월 백엔드닷AI 정식 버전에 포함해 온프레미스 고객사들에게 제공된다. 이 서비스는 국내 최대 슈퍼컴퓨팅 관련 학술대회 및 전시회인 KSC2023(8/21~23, 더케이 호텔 서울)에서도 직접 확인할 수 있다.
[테크수다 기자 도안구 eyeball@techsuda.com]