검색창 열기 인더뉴스 부·울·경

Communication 통신

SKT, ‘에이닷’에 미국 퍼플렉시티 ‘대화형 검색엔진’ 탑재

URL복사

Thursday, June 13, 2024, 15:06:57

미국 AI 검색엔진의 대표주자 ‘퍼플렉시티’에 1000만달러 투자
한국어 검색 성능 개선 위한 LLM 파인튜닝 및 검색 솔루션 고도화
'사람처럼 소통하는' 검색 가능

 

인더뉴스 이종현 기자ㅣSK텔레콤[017670]이 생성형 AI 검색엔진 기술 확보를 위해 미국 스타트업과 협력관계를 맺고 에이닷(A.)을 비롯한 AI 개인비서 서비스의 성능 강화에 나섭니다.

 

SKT는 미국 생성형 AI 검색엔진 스타트업 '퍼플렉시티'에 1000만달러를 투자하고 양사간 생성형 AI 검색엔진 사업협력을 더욱 공고히 할 것이라고 13일 밝혔습니다.

 

퍼플렉시티도 SKT가 지난해 미국 실리콘밸리에 설립한 '글로벌 AI 플랫폼 코퍼레이션(GAP)'에 향후 투자하기로 했습니다. GAP는 SKT의 글로벌 AI 서비스 개발 주체로 퍼플렉시티와 함께 AI 검색 서비스를 공동 개발키로 했습니다.

 

퍼플렉시티는 월 2억3000개가 넘는 검색 요청을 처리한 거대언어모델(LLM) 기반의 대화형 AI 검색 서비스 제공 업체입니다. 엔비디아, 아마존 회장 제프 베조스로부터 투자를 받았으며 올해 5월 월스트리트 저널에서 발표한 챗봇 사용성 평가에서 종합 1위를 차지했습니다.

 

SKT는 지난 2월 스페인 바르셀로나에서 열렸던 MWC 2024에서 이 회사와 전략적 파트너십을 체결한 바 있습니다.

 

퍼플렉시티는 SKT 의 에이닷을 포함해 현재 개발 중인 글로벌향 AI 개인 비서 서비스에 탑재할 생성형 AI 기반의 검색엔진을 고도화할 계획입니다.

 

양사는 또 한국어 검색 성능 개선을 위한 LLM 파인튜닝 및 검색 솔루션 고도화 등 포괄적인 공동 개발에 합의했습니다.

 

퍼플렉시티의 생성형 AI 검색엔진은 검색 후 답을 찾기까지의 지연 시간이 짧고 사용자에게 정확한 출처의 정보를 함께 제공하는 것이 특징입니다. 또한, 키워드 검색과 달리 사람과 소통하듯이 검색이 가능하며 답변과 관련한 인용문, 이미지, 그래프 등 다양한 검색 결과가 제공됩니다.

 

여기에 답변의 출처를 함께 제공하여 생성형 AI의 가장 큰 문제로 꼽히는 '환각 현상'을 방지합니다.

 

SKT는 ‘AI 개인비서’ 플랫폼에 검색엔진을 탑재시켜 대화형 질문은 물론, 검색 결과 요약, 연관 검색어 제안, 영문번역 및 요약 등의 광범위한 기능을 수행할 수 있을 것으로 기대하고 있습니다.

 

SKT는 향후 자사 고객에게 유료 구독형 검색 서비스인 '퍼플렉시티 프로'를 1년간 무료로 제공하고 에이닷, T우주, T멤버십 등 다양한 채널을 통한 공동 마케팅도 추진할 예정입니다.

 

이재신 SKT AI 성장전략 담당(부사장)은 "이번 투자 협력을 통해 AI 검색엔진 시장에서의 글로벌 경쟁력을 확보하게 됐다"며 "양사간 돈독한 협력을 기반으로 에이닷 검색 능력 강화 와 국내외 최고 수준의 AI 개인비서 서비스를 출시할 예정이다"고 말했습니다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이종현 기자 flopig2001@inthenews.co.kr

배너

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

2025.09.12 09:19:10

인더뉴스 이종현 기자ㅣSK하이닉스[000660]는 초고성능 AI(인공지능)용 메모리 신제품인 6세대 고대역폭메모리 HBM4 개발을 성공적으로 마무리하고 양산 체제를 세계 최초로 구축했다고 12일 밝혔습니다. SK하이닉스는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며 “이를 통해 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 설명했습니다. 개발을 이끈 조주환 SK하이닉스 부사장(HBM개발 담당)은 "HBM4 개발 완료는 업계에 새로운 이정표가 될 것"이라며 "고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입을 실현할 것"이라고 말했습니다. 최근 AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭 메모리 수요가 급증하고 있습니다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했습니다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 솔루션이 될 것으로 전망하고 있습니다. 이번에 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 높였습니다. 이는 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것입니다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했습니다. SK하이닉스는 이 제품에 10Gbps 이상의 동작 속도를 구현해, HBM4의 JEDEC( 국제반도체표준협의기구) 표준 동작 속도인 8Gbps를 크게 뛰어 넘었습니다. SK하이닉스는 장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF 공정과 10나노급 5세대 D램 기술을 이번 제품에 적용해 양산 과정의 리스크도 최소화했습니다. 김주선 SK하이닉스 김주선 AI Infra 사장(CMO)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며 “AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했습니다.




배너