검색창 열기 인더뉴스 부·울·경

Communication 통신

KT, AI 스타트업 ‘래블업’과 GPU 구독 서비스 사업 공동 추진

URL복사

Thursday, February 27, 2025, 14:02:03

GPU 활용 AI 개발 및 운영 환경 조성하는 AI 클라우드 구독 서비스 추진
래블업, GPU 가상화 및 동적 할당 기술 보유

 

인더뉴스 이종현 기자ㅣKT[030200]는 AI 스타트업 '래블업'과 함께 GPU 구독 서비스(GPUaaS) 사업을 추진한다고 27일 밝혔습니다.

 

양사는 26일 KT 광화문 빌딩 East에서 업무협약을 체결하고 AI 클라우드 서비스 사업과 GPUaaS 서비스를 공동 개발을 추진하기로 했습니다. 서비스 차별화를 위해 KT GPUaaS만의 기능과 기술도 선보인다는 방침입니다.

 

KT는 최근 글로벌 시장에서의 AX(AI Transformation) 수요 증가로 GPUaaS 시장이 빠르게 성장하는 것을 고려해 조속한 시일 내에 서비스를 출시할 계획이라고 설명했습니다.

 

GPUaaS는 AI 모델 훈련과 같은 고성능 컴퓨팅이 필요한 기업에 GPU 자원을 빌려주는 서비스입니다. GPU를 직접 보유하지 않고 필요한 만큼만 사용하기 때문에 합리적인 비용으로 AI 개발 환경을 조성할 수 있습니다.

 

래블업은 AI 인프라 운영 관리 플랫폼을 개발하는 기업입니다. GPU 자원을 가상화해 필요한 곳에 할당, 관리해 고객들이 보다 효율적으로 GPU를 사용할 수 있도록 돕습니다.

 

래블업은 수차례 유망 AI 스타트업으로 선정된 바 있으며 대표 상품인 '백엔드닷에이아이(Backend.AI)' 설루션은 아시아 태평양 지역서 유일하게 엔비디아 DGX-레디 소프트웨어 검증을 받았습니다.

 

송승호 KT 전략·사업컨설팅부문 SPA본부장은 "기업 고객의 AI 전환을 도와줄 설루션을 위해 다수의 파트너사들과 협력하고자 한다"라며 "래블업과 협력해 GPU가 필요한 많은 기업들에게 GPUaaS 서비스를 지원하겠다"라고 말했습니다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이종현 기자 flopig2001@inthenews.co.kr

배너

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

2025.09.12 09:19:10

인더뉴스 이종현 기자ㅣSK하이닉스[000660]는 초고성능 AI(인공지능)용 메모리 신제품인 6세대 고대역폭메모리 HBM4 개발을 성공적으로 마무리하고 양산 체제를 세계 최초로 구축했다고 12일 밝혔습니다. SK하이닉스는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며 “이를 통해 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 설명했습니다. 개발을 이끈 조주환 SK하이닉스 부사장(HBM개발 담당)은 "HBM4 개발 완료는 업계에 새로운 이정표가 될 것"이라며 "고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입을 실현할 것"이라고 말했습니다. 최근 AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭 메모리 수요가 급증하고 있습니다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했습니다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 솔루션이 될 것으로 전망하고 있습니다. 이번에 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 높였습니다. 이는 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것입니다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했습니다. SK하이닉스는 이 제품에 10Gbps 이상의 동작 속도를 구현해, HBM4의 JEDEC( 국제반도체표준협의기구) 표준 동작 속도인 8Gbps를 크게 뛰어 넘었습니다. SK하이닉스는 장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF 공정과 10나노급 5세대 D램 기술을 이번 제품에 적용해 양산 과정의 리스크도 최소화했습니다. 김주선 SK하이닉스 김주선 AI Infra 사장(CMO)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며 “AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했습니다.




배너