전기먹는 하마 'AI'를 잡아라...뜨는 기업은?
AI 전용 칩, 엔비디아 GPU 대비 10배 효율
이동훈
ldh@megaeconomy.co.kr | 2024-04-17 07:38:52
[메가경제=이동훈 기자] 전기 먹는 하마 인공지능(AI) 시대가 개막하면서, 글로벌 기업들은 전력 소비를 줄이는 최첨단 기술 개발에 사활을 걸고 있다.
17일 KB증권에 따르면 최근 빅테크 업체들은 전력 비용 절감과 엔비디아 GPU 공급구조에서 탈피를 위한 다각적인 접근을 시도하고 있다. 특히 24시간 가동되는 AI데이터센터의 전략량을 줄이기 위한 관련 기술 개발은 기업 생존 문제로까지 직결되고 있다.
구글과 마이크로소프트는 AI 전용 신제품 반도체인 TPU v5p와 마이아100을 공개했고, 아마존은 업그레이드된 AI 반도체인 Trainium2를 출시했다. 인텔은 신형 AI가속기 (가우디3)를 공식 선보였다.
엔비디아 H100은 전력 소비량이 최대 700W로 기존 데이터센터 대비 +2배 이상 높다. 또한 블랙웰 B100은 1000W, B200은 1200W로 향후 전력 소비는 더욱 늘어날 전망이다.
IEA (국제에너지기구)에 따르면 2026년 전 세계 데이터센터 사용 전력량 (1050TWh)은 2020년 일본 전체 전력 소비량 (1019TWh)을 넘어설 것으로 예상된다. 미국 전체 전력 소비량에서 차지하는 북미 데이터센터 전력 소비량은 2022년 2%에서 2030년 8% 수준까지 약 4배 증가될 예측했다.
이처럼 전력 소비량 급증의 이유는 AI 전용 데이터센터 변압기 용량 (5GWh)이 일반 데이터센터 (250MWh) 대비 20배에 달하기 때문이다.
이에 따라 2년 후인 2026년 전 세계 데이터센터 전력 사용량 (1050TWh)은 2024년 대비 2022년 독일의 전력 사용량 (484TWh) 만큼 추가될 것으로 추정된다.
AI전용칩이 미래 글로벌 경쟁의 핵심으로 부상한 이유이다.
김동원 KB증권 연구원은 “AI 서비스 (챗GPT)는 일반 검색 (구글) 대비 10배 많은 전력이 필요하다”며 “AI 전용 칩의 전력 소비량은 80~100W 수준으로 엔비디아 GPU 대비 전력 효율은 10배 높은 것”으로 판단했다.
이에 따라 AI 산업의 핵심 요소인 반도체는 기술의 발전에 따라 성장세가 가속화될 전망이다.
김 연구원은 “삼성전자, SK하이닉스, 가온칩스는 전력 효율을 높인 전용 AI 칩과 저전력 D램 (LPDDR, GDDR, LLW, LPCAMM) 출하를 확대할 것”으로 전망했다.
[ⓒ 메가경제. 무단전재-재배포 금지]