검색창 열기 인더뉴스 부·울·경

ICT 정보통신

LG, 국내 최초 오픈소스 AI ‘엑사원 3.0’ 공개…‘챗엑사원’ 베타 서비스 시작

URL복사

Wednesday, August 07, 2024, 15:08:23

이전 모델보다 성능 56%↑ 비용 72%↓
하반기부터 '엑사원 3.0' 들어간 LG 제품과 서비스 출시
생성형 AI 서비스 '챗엑사원' 첫 선

 

인더뉴스 이종현 기자ㅣLG AI연구원이 최신 AI 모델 '엑사원(EXAONE) 3.0'을 오픈소스로 7일 공개했습니다.

 

LG AI연구원은 2021년 12월 거대언어모델(LLM) 엑사원 1.0을 발표한 이후 2023년 7월 엑사원 2.0을 공개했으며 이날 엑사원 3.0을 공개하고 모델 학습 방법, 성능 평가 결과 등을 담은 기술 보고서(Technical Report)를 발표했습니다.

 

엑사원 3.0은 이전 모델인 엑사원 2.0 대비 추론 처리 시간은 56%, 메모리 사용량은 35% 줄이고 구동 비용은 72% 절감하는 성능과 경제성을 가졌습니다.

 

또한, 초기 거대 모델 대비 성능은 높이면서도 모델 크기는 100분의 3으로 줄었습니다.

 

엑사원 3.0은 실제 사용성을 비롯해 코딩과 수학 영역 등 13개 벤치마크 점수 순위에서 1위를 차지해 메타의 '라마3.1', 구글의 '젬마2' 등 동일 크기의 글로벌 오픈소스 AI 모델과의 비교에서도 경쟁력을 가짐을 입증했습니다.

 

 

한국어와 영어를 학습하고 이해할 수 있는 이중언어 모델인 엑사원 3.0은 특허와 소프트웨어 코드, 수학, 화학 등 국내외 전문 분야 데이터 6000만건 이상을 학습했습니다. 연말까지 법률, 바이오, 의료, 교육, 외국어 등 분야를 확장해 학습 데이터 양을 1억건 이상으로 늘려 엑사원 3,0의 성능을 더 끌어올릴 계획입니다.

 

LG AI연구원은 하반기부터 LG 계열사들과 함께 제품과 서비스에 엑사원 3.0 적용을 실시할 예정입니다.

 

LG 계열사들은 각 사가 보유한 데이터로 엑사원 3.0을 최적화하고 사업과 제품, 서비스 특성에 맞게 이를 적용해 혁신 속도를 높여갈 방침입니다.

 

글로벌 파트너십 논의도 진행 중입니다.

 

배경훈 LG AI연구원장은 "특화된 성능과 경제성을 갖춘 엑사원으로 LG 계열사와 외부 기업 및 기관과의 파트너십을 강화해 나갈 계획"이라 말했습니다.

 

이어서 "특히 국내에서는 처음으로 자체 개발한 AI 모델을 오픈소스로 공개해 학계, 연구 기관, 스타트업 등이 최신 생성형 AI 기술을 활용할 수 있게 함으로써 개방형 AI 연구 생태계 활성화와 더 나아가 국가 AI 경쟁력을 높이는 데 기여하고자 한다"고 강조했습니다.

 

한편, LG는 7일부터 임직원을 대상으로 '챗엑사원(ChatEXAONE)' 베타 서비스를 시작합니다.

 

챗엑사원은 엑사원 3.0을 기반으로 만든 생성형 AI 서비스로 ▲실시간 웹 정보 기반 질의응답 ▲문서, 이미지 기반 질의응답 ▲코딩 ▲데이터베이스 관리 등 업무 편의성과 효율성을 높일 수 있는 다양한 기능을 제공합니다.

 

챗엑사원은 실시간 웹 검색 결과를 활용하는 '검색증강생성(RAG, Retrieval-Augmented Generation)' 기술을 적용해 임직원이 입력한 지시문(프롬프트)의 맥락을 파악한 뒤 최신 정보를 반영한 답변을 내놓습니다.

 

 

LG AI연구원 관계자는 "생성형 AI는 입력하는 지시문 즉, 질문을 어떻게 하는지에 따라 다른 결과물을 생성한다"며 "관심 직무와 업무 특성에 맞는 질문, AI가 답변한 결과에 이어서 입력할 수 있는 질문 등을 추천해주는 기능도 개발해 적용함으로써 생성형 AI 이용에 익숙하지 않은 임직원들도 편하게 활용할 수 있게 했다"고 설명했습니다.

 

또한, 소프트웨어 개발자와 데이터 분석 전문가를 위한 기능도 제공합니다.

 

LG AI연구원은 챗엑사원이 자연어(사람이 일상적으로 사용하는 언어) 입력만으로 파이썬, 자바, C++ 등 22개 프로그래밍 언어와 데이터베이스 관리에 활용할 수 있는 SQL(구조화된 질의 언어) 쿼리까지 생성할 수 있어 임직원의 업무 효율성을 높일 수 있을 것으로 기대하고 있다 밝혔습니다.

 

챗엑사원은 연말까지 베타 서비스를 진행하며 임직원들의 의견과 아이디어를 반영한 업데이트를 주기적으로 시행하고 정식 서비스와 모바일 앱은 LG 계열사별 준비 상황에 맞춰 순차적으로 제공될 예정입니다.

 

사내 문서 학습 및 보안 데이터 관리가 필요한 계열사의 경우 별도의 특화 서비스 구축을 진행할 계획입니다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이종현 기자 flopig2001@inthenews.co.kr

배너

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

2025.09.12 09:19:10

인더뉴스 이종현 기자ㅣSK하이닉스[000660]는 초고성능 AI(인공지능)용 메모리 신제품인 6세대 고대역폭메모리 HBM4 개발을 성공적으로 마무리하고 양산 체제를 세계 최초로 구축했다고 12일 밝혔습니다. SK하이닉스는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며 “이를 통해 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 설명했습니다. 개발을 이끈 조주환 SK하이닉스 부사장(HBM개발 담당)은 "HBM4 개발 완료는 업계에 새로운 이정표가 될 것"이라며 "고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입을 실현할 것"이라고 말했습니다. 최근 AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭 메모리 수요가 급증하고 있습니다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했습니다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 솔루션이 될 것으로 전망하고 있습니다. 이번에 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 높였습니다. 이는 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것입니다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했습니다. SK하이닉스는 이 제품에 10Gbps 이상의 동작 속도를 구현해, HBM4의 JEDEC( 국제반도체표준협의기구) 표준 동작 속도인 8Gbps를 크게 뛰어 넘었습니다. SK하이닉스는 장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF 공정과 10나노급 5세대 D램 기술을 이번 제품에 적용해 양산 과정의 리스크도 최소화했습니다. 김주선 SK하이닉스 김주선 AI Infra 사장(CMO)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며 “AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했습니다.




배너