lablup.com

  • sns
  • sns
  • sns
  • sns
Sep 4, 2025

래블업, AI Infra Summit 2025 참가… AI 인프라 운영의 미래 제시

[래블업] AI Infra Summit 2025_AIDOL-F.png

- 래블업, 오는 9월 미국에서 열리는 AI Infra Summit 2025 참가 

- AI 네이티브 플랫폼 ‘AI:DOL’ 베타 버전 첫 공개, 포괄적 AI 생태계 구축 비전 제시 

- 소형 에지 디바이스부터 초대형 GPU 데이터센터까지 확장 가능한 Backend.AI 운영 역량 시연 

- 국가 AI 프로젝트 ‘한국형 소버린 AI’ 참여, 글로벌 경쟁력 강화 

- 모든 조직의 AI 인프라 운영 장벽을 낮추는 PaaS 전략 발표 

래블업, AI 네이티브 플랫폼 ‘AI:DOL’ 공개…에지부터 하이퍼스케일 데이터센터·국가 AI 프로젝트까지 확장 

AI 인프라스트럭처 운영 플랫폼 Backend.AI를 개발하는 래블업(Lablup)은 오는 9월 미국에서 열리는 AI Infra Summit 2025에 참가해 AI 네이티브 시대를 선도할 차세대 기술을 선보인다. AI Infra Summit 2025는 전 세계 3,500여 명의 AI 전문가와 100여 개 파트너사가 모여 AI 하드웨어, 데이터센터, 엣지 컴퓨팅까지 아우르는 글로벌 최대 AI 인프라 행사다. 래블업은 #620 부스에서 AI 네이티브 플랫폼 AI:DOL 베타 버전을 공개하고, 소형 AI 디바이스부터 초대형 GPU 데이터센터에 이르는 Backend.AI의 운영 역량을 현장에서 직접 시연한다. 

◇ 다양한 오픈모델을 활용하여 나만의 서비스를 만드는 Lablup AI:DOL 베타 버전 공개 

래블업은 자사의 AI 네이티브 플랫폼 'AI:DOL (AI Deployable Omnimedia Lab)' 베타 버전을 공개한다. AI:DOL은 Backend.AI Core와 PALI 기반 백엔드 서비스를 결합한 생성형 AI 개발 플랫폼으로, 별도 설치 없이 웹 브라우저에서 접근해 초보자부터 숙련 개발자까지 로우코드 환경에서 다양한 오픈 모델을 활용할 수 있도록 설계됐다. 특히 Backend.AI Continuum을 통한 온프레미스와 클라우드 자원의 완전한 통합을 지원해, 사용자가 직접 서빙하는 모델을 바탕으로 내부와 외부 클라이언트 대상의 AI 앱을 손쉽게 개발·배포할 수 있다. 현재는 채팅 중심의 기능을 제공하지만, 향후 이미지·비디오 생성, AI 코딩 등 다양한 아티팩트 제작 기능을 확대해 단순한 프롬프트 실험부터 실제 서비스 구축까지 아우르는 포괄적 AI 개발 생태계로 발전해 나갈 계획이다. 

◇ 소형 에지부터 1500여대 GPU에 달하는 대형 데이터센터까지 Backend.AI의 관리 능력 선보여 

래블업은 NVIDIA Jetson Orin Nano 기반 미니 AI 팩토리를 통해 소형 에지 디바이스부터 GPU 1,500여 대 규모의 하이퍼스케일 데이터센터까지 동일한 Backend.AI 플랫폼으로 관리·운영할 수 있는 확장성을 선보인다. 방문객들은 모듈러 컴퓨팅 기반으로 손쉽게 확장되는 Backend.AI의 스케일 아웃 기능을 직접 체험할 수 있으며, 이기종 AI 가속기 관리 능력과 더불어 래블업이 특허를 보유한 GPU 분할 가상화 기술을 통해 한 장의 GPU를 다수의 가상 GPU로 나누고, 각 분할 단위에서 다양한 AI 모델을 실행하는 과정도 확인할 수 있다. 

◇ 모든 조직에 AI 인프라 운영 장벽 낮춘다 

래블업은 AI Infra Summit 2025 참가를 계기로 글로벌 AI 시장에서 입지를 강화하고, 기업 고객들이 AI 사업을 자신 있게 확장할 수 있도록 Backend.AI와 다양한 생태계 기능을 선보일 예정이다. 래블업 신정규 대표는 “미국을 비롯한 글로벌 시장에서 AI 주권에 대한 관심이 높아지며 AI 인프라 수요가 급격히 확대되고 있지만, 다양한 하드웨어를 안정적으로 연동·운영하는 데는 여전히 큰 어려움이 있다”며, “Backend.AI는 이러한 도전을 해결하는 AI 인프라 운영 플랫폼으로서, 소규모에서 초대규모까지 유연한 확장성과 높은 운영 효율성을 제공한다”고 밝혔다. 

◇ Backend.AI 기반 인프라로 한국형 파운데이션 모델 훈련 지원  

한편, 래블업은 과학기술정보통신부가 주관하는 독자 AI 파운데이션 모델 프로젝트에도 참여해 업스테이지 컨소시엄 내에서 AI 인프라스트럭처와 핵심 기술을 담당하고 있다. SK텔레콤의 해인 클러스터에서 Backend.AI를 기반으로 NVIDIA B200 GPU 인프라를 운영하며, 업스테이지·NVIDIA·SK텔레콤과 함께 대규모 파운데이션 모델 훈련의 안정성과 가속 기술을 공동 연구·적용하고 있다. 이를 통해 래블업은 정부가 추진하는 ‘한국형 소버린 AI’ 생태계 구축에 기여하는 동시에, 대규모 AI 훈련 관련 기술을 공개하여 글로벌 경쟁력 확보에도 앞장서고 있다.

  • sns
  • sns
  • sns
  • sns

© Lablup Inc. All rights reserved.

KR Office: 서울특별시 강남구 선릉로 577 CR타워 8층 US Office: 3003 N First st, Suite 221, San Jose, CA 95134
KR Office: 서울특별시 강남구 선릉로 577 CR타워 8층 US Office: 3003 N First st, Suite 221, San Jose, CA 95134