래블업, CES서 클라우드 없이 개인용 컴퓨터에서 LLM 돌리는 'Backend.AI:GO' 공개
- 엔터프라이즈 AI 인프라를 개인 PC까지 확장… 중앙 관리 체계 그대로 유지
- 클라우드 버전 'Backend.AI:DOL'도 정식 출시, AI PC부터 하이퍼스케일까지 풀스택 체제 완성

AI 인프라 플랫폼 기업 래블업(대표 신정규)이 2026년 1월 6일부터 9일까지 미국 라스베이거스 컨벤션센터에서 개최되는 CES 2026에 4년 연속으로 참가한다. 래블업은 이번 행사에서 클라우드 서버 없이 개인 PC에서 SLM(소형언어모델)을 직접 구동하는 데스크탑 애플리케이션, 'Backend.AI:GO(백엔드닷에이아이:고)'를 정식 출시한다.
Backend.AI:GO의 'GO'는 'Generative On-device'의 약자다. 온프레미스 환경에서 로컬 자원을 활용해 AI 추론을 가속한다. 모델을 다운로드받은 이후부터는 클라우드를 거치지 않아 인터넷 연결 없이도 작동하고, 사용자가 입력한 데이터도 외부 서버로 전송되지 않는다. 사용자는 개인 컴퓨터에서 보안 우려 없이 손쉽게 모델을 다운로드받아 사내 문서 분석, 이미지 이해 및 생성, 코드 리뷰 등에 자유롭게 활용할 수 있으며, 하이퍼파라미터(초매개변수)와 자원 할당량을 조절하여 모델의 응답 특성과 자원 사용량을 원하는대로 변경할 수 있다.
Backend.AI:GO의 핵심 차별점은 래블업의 AI 인프라 운영 플랫폼 'Backend.AI'와의 연동성에 있다. 여러 대의 Backend.AI:GO를 연결하거나, 이미 구축한 Backend.AI 환경 및 OpenAI, Google 등의 클라우드 AI 들과 연동하면 초거대 AI 들과 로컬 PC의 자원을 통합해서 활용할 수 있다. 수천 대 GPU 클러스터를 운영하던 방식 그대로 AI PC까지 관리 범위를 확장, 중앙 관리 콘솔에서 모델 사용, 버전 관리, 사용량 모니터링까지 통합하여 편리하게 사용할 수 있다.
한편, AI Infra Summit에서 베타 버전으로 최초 공개돼 큰 관심을 받은 클라우드형 제품인 'Backend.AI:DOL(백엔드닷에이아이:돌)'도 CES에서 정식 출시할 예정이다. 'Deployable Omnimedia Lab'의 약자로, 브라우저를 통해 다양한 공개형 모델을 불러와 사용할 수 있다. Backend.AI:GO가 온디바이스를, Backend.AI:DOL이 클라우드를 담당하면서 래블업은 AI PC부터 하이퍼스케일 GPU 클러스터까지 모든 구간을 일관적으로 커버하는 풀스택 AI 인프라에 이어 응용 시스템까지도 아우르는 체제를 갖추게 됐다.
신정규 래블업 대표는 "AI PC 시대가 본격화되면서 온디바이스 환경에서 LLM을 직접 구동하려는 엔터프라이즈 수요가 빠르게 늘고 있다"며 "Backend.AI:GO와 DOL을 통해 개인 PC 한 대부터 수천 대 GPU 클러스터까지 규모와 환경에 관계없이 일관된 경험으로 AI 인프라를 운영할 수 있는 환경을 제공하겠다"고 밝혔다.
이어 "래블업은 4년 연속 CES에 참가하며 글로벌 AI 인프라 시장에서 입지를 넓혀왔다"며 "이번 CES에서 온디바이스와 클라우드를 아우르는 풀스택 AI 인프라 솔루션을 선보이며 AI 인프라 운영의 새로운 기준을 제시하겠다"고 덧붙였다.
래블업은 CES LVCC North Hall 9529번 부스에서 만날 수 있다.