검색창 열기 인더뉴스 부·울·경

Tech 테크

LG, 생성형 AI ‘엑사원’ 새 버전 공개…온디바이스·범용·고성능 3가지 모델

URL복사

Monday, December 09, 2024, 15:12:27

20개 벤치마크 결과 AI 모델 중 최고 수준 성능
오픈소스 공개…누구나 연구 목적으로 활용·검증 가능
기업용 AI 에이전트 '챗엑사원' 임직원 대상 정식 서비스 시작

 

 

인더뉴스 이종현 기자ㅣLG AI연구원은 자체 개발한 생성형 AI '엑사원(EXAONE)'의 성능을 강화한 '엑사원 3.5'를 오픈소스로 공개했다고 9일 밝혔습니다.

 

이는 지난 8월 직전 모델인 '엑사원 3.0'이 공개된 지 4개월 만입니다.

 

엑사원 3.5는 ▲온디바이스용 초경량 모델(2.4B, 24억 파라미터) ▲범용 목적의 경량 모델(7.8B, 78억 파라미터) ▲특화 분야에 활용할 수 있는 고성능 모델(32B, 320억 파라미터) 등 3종을 모두 오픈소스로 공개했습니다.

 

LG AI연구원은 환각 현상을 최소화하고 답변의 정확도를 높이기 위해 실시간 웹 검색 결과나 업로드한 문서를 기반으로 답변을 생성하는 검색 증강 생성 기술을 고도화하고 AI가 사용자가 입력한 질문을 단계별로 분해해 논리적으로 추론한 결과를 생성하는 기술을 적용했습니다.

 

LG AI연구원이 공개한 기술 보고서에 따르면 엑사원 3.5는 미국, 중국 등의 글로벌 오픈소스 AI 모델과의 성능 평가 비교에서 ▲실제 사용성 ▲장문 처리 능력 ▲코딩 ▲수학 등에서 세계 최고 수준이라는 설명입니다.

 

 

오픈소스로 공개한 엑사원 3.5는 3가지 모델 모두 연구 목적으로 활용이 가능합니다.

 

LG AI연구원은 엑사원을 기반으로 만든 기업용 AI 에이전트 '챗엑사원(ChatEXAONE)'의 정식 서비스를 개시하며 엑사원 3.5를 적용했습니다. LG 임직원들은 9일부터 전용 웹페이지에 접속해 가입하면 ‘챗엑사원’을 업무에 활용할 수 있습니다.

 

챗엑사원은 정보 암호화, 개인 정보 보호 기술을 적용해 임직원들이 사내 보안 환경 내에서 내부 데이터의 유출 우려 없이 업무에 활용할 수 있는 기업용 AI 에이전트입니다.

 

LG AI연구원은 챗엑사원에 엑사원 3.5를 적용하면서 성능을 고도화하고 '심층 분석(Deep)'과 '출처 선택(Dive)' 기능을 추가했습니다.

 

'심층 분석'은 여러 개의 질문이 섞여 있는 복합 질문을 했을 때 챗엑사원이 이를 단계별로 나눠 분석하고 추론한 뒤 종합적인 답변을 하는 기능이며 '출처 선택'은 범용, 해외 사이트, 학술 자료, 유튜브 등 검색 범위를 선택해서 목적에 따라 정확한 출처에 기반한 답변을 확인할 수 있는 기능입니다.

 

챗엑사원은 14개 직무, 133개 업무별 특화된 지시문을 추천하고 맞춤형 답변을 제공하며 임직원은 용도에 따라 관심 업무를 설정해 사용할 수 있습니다.

 

챗엑사원은 현재 한국어 기준으로 단어 2만개(영어 단어 2만3000개)를 동시에 처리할 수 있는 3만2000 토큰을 지원해 장문의 질문과 답변이 가능해졌고 내년 상반기 중 12만8000 토큰으로 확장될 계획입니다.

 

배경훈 LG AI연구원장은 "최근 생성형 인공지능 모델의 발전이 빨라져 업그레이드 속도전이 중요한 시기"라며 "산업 현장에 적용 가능한 초인공지능을 목표로 혁신의 속도를 높이고 한국을 대표하는 프론티어 모델로 발전시켜 나갈 것"이라고 말했습니다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이종현 기자 flopig2001@inthenews.co.kr

배너

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

2025.09.12 09:19:10

인더뉴스 이종현 기자ㅣSK하이닉스[000660]는 초고성능 AI(인공지능)용 메모리 신제품인 6세대 고대역폭메모리 HBM4 개발을 성공적으로 마무리하고 양산 체제를 세계 최초로 구축했다고 12일 밝혔습니다. SK하이닉스는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며 “이를 통해 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 설명했습니다. 개발을 이끈 조주환 SK하이닉스 부사장(HBM개발 담당)은 "HBM4 개발 완료는 업계에 새로운 이정표가 될 것"이라며 "고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입을 실현할 것"이라고 말했습니다. 최근 AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭 메모리 수요가 급증하고 있습니다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했습니다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 솔루션이 될 것으로 전망하고 있습니다. 이번에 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 높였습니다. 이는 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것입니다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했습니다. SK하이닉스는 이 제품에 10Gbps 이상의 동작 속도를 구현해, HBM4의 JEDEC( 국제반도체표준협의기구) 표준 동작 속도인 8Gbps를 크게 뛰어 넘었습니다. SK하이닉스는 장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF 공정과 10나노급 5세대 D램 기술을 이번 제품에 적용해 양산 과정의 리스크도 최소화했습니다. 김주선 SK하이닉스 김주선 AI Infra 사장(CMO)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며 “AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했습니다.




배너