검색창 열기 인더뉴스 부·울·경

Communication 통신

KT, AI 학습 플랫폼 ‘콴다’ 구독 서비스 2종 출시

URL복사

Monday, February 03, 2025, 09:02:42

문제를 사진으로 촬영하면 AI가 5초 안에 풀이 제공
지역 1타 강사, 명문대 대학생 등이 동영상 풀이 제공
콴다 프리미엄, 콴다 프리미엄 Lite 2종 출시

 

인더뉴스 이종현 기자ㅣKT[030200]가 인공지능(AI) 학습 플랫폼 '콴다' 구독 서비스 2종을 새롭게 선보인다고 3일 밝혔습니다.

 

콴다는 KT가 100억원 규모의 지분을 투자한 국내 벤처기업 '매스프레소'의 대표 서비스로 전략적 제휴를 통해 KT가 통신사 중 처음으로 출시했습니다.

 

콴다는 광학 문자 인식(OCR) 기술을 활용해 모르는 문제를 사진으로 촬영하면 AI가 5초 안에 풀이를 제공하는 인공지능 학습 플랫폼입니다.

 

단계별 풀이와 힌트 제공, 개별 학생 맞춤형 설명 등 다양한 학습 방식을 지원하며 AI가 제시하는 추가 질문을 통해 자기주도적 학습 능력을 강화할 수 있습니다.

 

또한, 지역 1타 강사와 명문대 대학생 등 교육자들이 1200권 이상의 주요 문제집과 모의고사에 대한 상세한 동영상 풀이를 제공한다는 특징을 가졌습니다.

 

현재 콴다 서비스는 전 세계 50여개국에서 매월 800만명 이상의 학생들이 사용 중이며 누적 검색 수는 70억건에 달한다.

 

KT는 ▲콴다 프리미엄(월 1만8500원) ▲ 콴다 프리미엄 Lite(월 1만1000원) 2종의 OTT 구독 부가서비스로 제공합니다.

 

KT는 3월31일까지 신규 가입 고객을 대상으로 6월30일까지 정가의 50%할인 혜택을 제공하며 이후에는 상시 2000원 할인된 가격으로 서비스를 지원합니다. 

 

김영걸 KT 서비스Product본부장(상무)은 "1월에 출시한 AI 디지털 매거진 모아진에 이어 AI 학습 플랫폼 콴다 출시를 통해 24시간 언제 어디서나 학생들의 자기주도학습 환경을 제공하게 됐다"며 "앞으로도 고객 개개인 필요에 맞춘 혜택 등을 AI가 맞춤형으로 제안하는 서비스를 지속 확대하도록 노력하겠다"고 말했습니다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이종현 기자 flopig2001@inthenews.co.kr

배너

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

2025.09.12 09:19:10

인더뉴스 이종현 기자ㅣSK하이닉스[000660]는 초고성능 AI(인공지능)용 메모리 신제품인 6세대 고대역폭메모리 HBM4 개발을 성공적으로 마무리하고 양산 체제를 세계 최초로 구축했다고 12일 밝혔습니다. SK하이닉스는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며 “이를 통해 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 설명했습니다. 개발을 이끈 조주환 SK하이닉스 부사장(HBM개발 담당)은 "HBM4 개발 완료는 업계에 새로운 이정표가 될 것"이라며 "고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입을 실현할 것"이라고 말했습니다. 최근 AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭 메모리 수요가 급증하고 있습니다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했습니다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 솔루션이 될 것으로 전망하고 있습니다. 이번에 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 높였습니다. 이는 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것입니다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했습니다. SK하이닉스는 이 제품에 10Gbps 이상의 동작 속도를 구현해, HBM4의 JEDEC( 국제반도체표준협의기구) 표준 동작 속도인 8Gbps를 크게 뛰어 넘었습니다. SK하이닉스는 장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF 공정과 10나노급 5세대 D램 기술을 이번 제품에 적용해 양산 과정의 리스크도 최소화했습니다. 김주선 SK하이닉스 김주선 AI Infra 사장(CMO)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며 “AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했습니다.




배너