검색창 열기 인더뉴스 부·울·경

Communication 통신

KT, 태국어 LLM 플랫폼 개발 성료…국내 기업 LLM 플랫폼 수출 첫 사례

URL복사

Tuesday, April 15, 2025, 15:04:19

고객사와 태국 AI 서비스 출시 추진
업스테이지와 협업…태국 내 AI 생태계 확장
성공적인 해외 AX 프로젝트 레퍼런스 확보 의의

 

인더뉴스 이종현 기자ㅣKT[030200]가 태국 '자스민(Jasmine)' 그룹의 IT 전문 기업 '자스민 테크놀로지 설루션(JTS)'과 추진한 태국어 거대 언어 모델(LLM) 플랫폼 구축 프로젝트를 성공적으로 마무리했다고 15일 밝혔습니다.

 

KT는 지난해 3월 JTS와 태국어 LLM 플랫폼 개발 프로젝트를 위한 계약을 체결하고 1년여간 프로젝트를 수행해 왔습니다. 이 프로젝트는 LLM 운영 관리 환경 'LLM 옵스(Ops)'와 AI 서비스 인프라 'GPU 팜(Farm)'을 구축하고 '태국어 전용 'LLM 모델'까지 개발하는 원스톱 프로젝트입니다.

 

해외에 종합 AI 인프라를 구축해 생성형 AI 서비스의 개발과 운영, 확장 환경을 마련한 것은 국내 기업 중 KT 그룹이 처음입니다.

 

LLM 옵스는 다양한 LLM 모델의 학습·배포·운영 전 과정을 관리할 수 있는 환경입니다. KT는 이를 고객사 맞춤형으로 구축해 JTS는 복잡한 생성형 AI 운영 환경을 보다 효율적, 안정적으로 운용할 수 있게 됐다고 설명했습니다.

 

아울러 KT는 클라우드 자회사 KT Cloud와 함께 GPU 자원 관리를 위한 GPU 팜도 태국 현지에 조성했습니다. 여기에 기반해 JTS는 태국 기업과 기관에 GPU 구독 서비스(GPUaaS)를 공급하고 태국 내 AI 생태계 확장을 촉진할 계획입니다.

 

KT는 자체 모델 개발 경험을 토대로 국내 LLM 전문 기업 업스테이지와 태국어 전용 LLM을 공동 개발했습니다. 이 모델은 태국어, 영어, 한국어 등을 지원하며 태국의 고유 데이터를 학습해 태국 정치, 역사, 문화 관련 질문에도 응대할 수 있습니다.

 

KT는 지난 2023년 업스테이지에 투자해 왔습니다. 이번 프로젝트는 대기업과 스타트업이 공동으로 글로벌 AX 사업을 성공한 사례로서 의미를 더했다고 KT는 강조했습니다.

 

KT는 앞으로도 JTS의 전문 기술 파트너로서 ▲AI 플랫폼 고도화 ▲GPU 인프라 확장 및 유지 보수 ▲AI 기반 신규 서비스 발굴 등 다분야에서 지속적인 협력을 이어 나갈 계획입니다. 양사는 태국 AX 시장을 겨냥한 AI 서비스를 단계적으로 선보일 예정입니다.

 

KT는 이번 프로젝트를 기반으로 고도화된 AI 사업 역량을 확보하고 동남아 시장뿐만 아니라 중동, 유럽 등 다른 글로벌 시장까지 AX 사업 영역을 본격적으로 확대해 나간다는 방침입니다.

 

이진형 KT 전략·사업컨설팅부문 AI사업전략담당 상무는 "태국어 특화 LLM 플랫폼 개발과 상용화는 KT의 AI 기술력과 글로벌 사업 역량을 다시 한번 입증한 성과"라며 "이번 프로젝트에서 얻은 경험과 노하우를 포함해 KT는 마이크로소프트, 팔란티어와의 전략적 제휴를 기반으로 AI, 클라우드의 서비스형 상품 라인업도 다각화해 나갈 계획이다"고 말했습니다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이종현 기자 flopig2001@inthenews.co.kr

배너

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

2025.09.12 09:19:10

인더뉴스 이종현 기자ㅣSK하이닉스[000660]는 초고성능 AI(인공지능)용 메모리 신제품인 6세대 고대역폭메모리 HBM4 개발을 성공적으로 마무리하고 양산 체제를 세계 최초로 구축했다고 12일 밝혔습니다. SK하이닉스는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며 “이를 통해 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 설명했습니다. 개발을 이끈 조주환 SK하이닉스 부사장(HBM개발 담당)은 "HBM4 개발 완료는 업계에 새로운 이정표가 될 것"이라며 "고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입을 실현할 것"이라고 말했습니다. 최근 AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭 메모리 수요가 급증하고 있습니다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했습니다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 솔루션이 될 것으로 전망하고 있습니다. 이번에 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 높였습니다. 이는 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것입니다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했습니다. SK하이닉스는 이 제품에 10Gbps 이상의 동작 속도를 구현해, HBM4의 JEDEC( 국제반도체표준협의기구) 표준 동작 속도인 8Gbps를 크게 뛰어 넘었습니다. SK하이닉스는 장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF 공정과 10나노급 5세대 D램 기술을 이번 제품에 적용해 양산 과정의 리스크도 최소화했습니다. 김주선 SK하이닉스 김주선 AI Infra 사장(CMO)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며 “AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했습니다.




배너