검색창 열기 인더뉴스 부·울·경

Global 글로벌

엔비디아 젠슨 황, AI 기반 전력망에 대한 긍정적 전망 제시

URL복사

Thursday, June 20, 2024, 16:06:43

에디슨 전기협회 연례 회의 참석해 전력망과 유틸리티 중요성 강조
최첨단 LLM에서 AI 추론 실행 에너지 효율성 4만5000배 향상

 

인더뉴스 이종현 기자ㅣ젠슨 황 엔비디아 CEO가 지난 18일 미국 및 국제 유틸리티 협회인 에디슨 전기협회(Edison Electric Institute, EEI) 연례 회의에 참석해 AI 기반 전력망에 대한 전망을 제시했습니다.

 

20일 엔비디아에 따르면, 젠슨 황은 이날 전력망과 이를 관리하는 유틸리티는 AI와 가속 컴퓨팅이 주도하는 차세대 산업 혁명에서 중요한 역할을 담당하고 있다고 강조했습니다.

 

젠슨 황은 청중으로 참여한 1000여명 이상의 유틸리티와 에너지 업계 경영진 앞에서 "디지털 인텔리전스의 미래는 매우 밝으며 그만큼 에너지 분야의 미래도 밝다"고 말했습니다.

 

다른 기업들처럼 유틸리티도 직원 생산성을 높이기 위해 AI를 적용할 것으로 예상됩니다. 하지만 젠슨 황은 "가장 큰 영향력과 수익은 전력망을 통한 에너지 공급에 AI를 적용하는 데 있다" 말했습니다.

 

젠슨 황은 전력망이 AI 기반 스마트 계량기를 사용해 고객들이 여분의 전력을 이웃에게 판매할 수 있도록 하는 방법을 하나의 예시로 설명했습니다.

 

그는 "구글처럼 자원과 사용자들을 연결함으로써 전력망이 에너지 앱 스토어와 같은 디지털 레이어를 갖춘 스마트 네트워크가 될 것이다“라며 ”AI는 이전 산업혁명과 마찬가지로 우리가 경험하지 못한 수준으로 생산성을 끌어올릴 것"이라고 강조했습니다.

 

오늘날의 전력망은 주로 몇몇 대형 발전소와 많은 사용자를 연결하는 단방향 시스템입니다. 그러나 앞으로는 태양광 패널, 배터리, 전기 자동차 충전기를 갖춘 가정과 건물을 연결하는 태양광과 풍력 발전소를 통해 양방향의 유연하고 분산된 네트워크가 될 것으로 예상됩니다.

 

이는 방대한 양의 데이터를 실시간으로 처리하고 분석하는 자율 제어 시스템을 필요로 하는 대규모 작업으로 AI와 가속 컴퓨팅에 적합한 작업입니다.

 

미국 오리건주에 위치한 포틀랜드 제너럴 일렉트릭의 CEO인 마리아 포프는 "엔비디아가 개발한 AI와 고급 컴퓨팅 기술을 배포함으로써 더 빠르고 뛰어난 전력망 현대화가 가능해졌으며 이를 통해 우리는 고객에게 더 나은 서비스를 제공할 수 있게 됐다"고 말했습니다.

 

이러한 발전은 엔비디아가 AI 배포에 필요한 비용과 에너지를 절감하면서 이루어졌다고 엔비디아는 설명했습니다.

 

젠슨 황은 최근 컴퓨텍스(COMPUTEX) 기조연설에서 지난 8년 동안 엔비디아는 최첨단 거대 언어 모델(large language models, LLM)에서 AI 추론 실행의 에너지 효율성을 무려 4만5000배 향상시켰다고 말했습니다.

 

엔비디아 블랙웰(Blackwell) 아키텍처 GPU는 AI와 고성능 컴퓨팅을 위해 CPU보다 약 20배 더 높은 에너지 효율성을 제공합니다. 이러한 작업을 위한 모든 CPU 서버를 GPU로 전환하면 사용자는 연간 37테라와트시(TWh)를 절약할 수 있으며 이는 이산화탄소 2500만 메트릭 톤과 500만 가구의 전기 사용량에 해당하는 양입니다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이종현 기자 flopig2001@inthenews.co.kr

배너

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료 및 양산 체제 구축

2025.09.12 09:19:10

인더뉴스 이종현 기자ㅣSK하이닉스[000660]는 초고성능 AI(인공지능)용 메모리 신제품인 6세대 고대역폭메모리 HBM4 개발을 성공적으로 마무리하고 양산 체제를 세계 최초로 구축했다고 12일 밝혔습니다. SK하이닉스는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며 “이를 통해 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 설명했습니다. 개발을 이끈 조주환 SK하이닉스 부사장(HBM개발 담당)은 "HBM4 개발 완료는 업계에 새로운 이정표가 될 것"이라며 "고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입을 실현할 것"이라고 말했습니다. 최근 AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭 메모리 수요가 급증하고 있습니다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했습니다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 솔루션이 될 것으로 전망하고 있습니다. 이번에 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 높였습니다. 이는 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것입니다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했습니다. SK하이닉스는 이 제품에 10Gbps 이상의 동작 속도를 구현해, HBM4의 JEDEC( 국제반도체표준협의기구) 표준 동작 속도인 8Gbps를 크게 뛰어 넘었습니다. SK하이닉스는 장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF 공정과 10나노급 5세대 D램 기술을 이번 제품에 적용해 양산 과정의 리스크도 최소화했습니다. 김주선 SK하이닉스 김주선 AI Infra 사장(CMO)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며 “AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했습니다.




배너