[뉴스스페이스=조일섭 기자] 인공지능(AI)용 반도체 시장의 선두 주자인 엔비디아가 기존 제품보다 한층 더 성능을 끌어올린 차세대 AI 반도체를 공개했다.
AI 반도체 시장에서 AMD와 인텔 등도 도전장을 내고 치열한 경쟁이 이뤄지는 가운데, 기존 GPU(그래픽처리장치)를 뛰어넘는 성능으로 이들과의 격차를 더욱 벌리겠다는 계획이다.
엔비디아는 13일(현지시간) 생성형 인공지능(AI) 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 출시했다.
H200은 챗GPT 개발사 오픈AI 최신 LLM인 GPT-4 훈련에 적용되는 등 전 세계 기업들이 확보하기 위해 경쟁을 벌이는 H100 칩셋의 업그레이드 버전이다. 현재 H100 칩 1개당 가격은 2만5000~4만달러로 추정되고 있으며, LLM을 구동하는 데에는 수천 개의 칩이 필요하다.
H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3’가 탑재됐다. 고대역폭메모리(HBM)는 여러 개의 D램을 수직으로 연결해 데이터 처리 속도는 물론 AI 모델을 사용한 텍스트, 이미지 등의 생성 능력과 추론 능력이 한층 향상됐다.
엔비디아는 메타의 최신 대형언어모델(LLM) '라마2'를 대상으로 테스트해 본 결과 H200가 기존의 H100에 비해 처리 속도가 두 배가량 빠른 것으로 확인됐다고 밝혔다.
오는 2024년 2분기에 본격 출시될 예정인 엔비디아의 H200은 경쟁사 AMD에 맞불을 놓는 성격이 강하다.
미국 반도체 기업 AMD가 지난 6월 출시한 최첨단 인공지능 GPU인 'MI300X'와 AI용 반도체 시장에서 경쟁할 것으로 보인다. AMD는 MI300X 공개 당시 "엔비디아의 H100보다 메모리 밀도가 2.4배 높고 대역폭은 1.6배 크다"며 우월성을 강조했다.
아마존웹서비스(AWS), 마이크로소프트, 구글 등 글로벌 AI 업체들이 서비스를 고도화하는 데 H200을 활용할 것으로 전망된다.
엔비디아는 H200이 H100과 호환되므로 이미 이전 모델로 훈련 중인 AI 기업은 새 버전을 사용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다고 밝혔다.
앞서 10월 엔비디아는 GPU에 대한 높은 수요에 부응하고 데이터센터 시장에서의 지배력을 굳히기 위해 새로운 GPU 아키텍처 개발 속도를 높이고 제품 출시 주기를 기존 2년에서 1년으로 단축할 계획이라고 밝혔다.
이에 따라 2024년에는 '호퍼(Hopper)'의 후속 아키텍처로 '블랙웰(Blackwell)'이 등장하고, 2025년에는 'X'로 지정한 새로운 아키텍처가 뒤를 이을 예정이다.
엔비디아 인공지능(AI) 가속기 'H200'에는 5세대 고대역폭메모리(HBM)가 대거 적용돼 삼성전자, SK하이닉스 등 메모리 반도체 기업들의 ‘HBM 특수’를 이끌어낼 것이란 전망이 나온다.
현재 전 세계 HBM 시장은 삼성·SK 두 업체가 독식하고 있다. 시장조사업체 트렌드포스에 따르면 지난해 기준 SK하이닉스의 글로벌 HBM 시장 점유율은 50%에 달한다. 삼성전자도 40%의 점유율을 확보하며 SK하이닉스의 뒤를 바짝 추격 중이다. K-반도체가 전 세계 HBM 공급을 전담하고 있는 셈.
트렌드포스는 내년에 삼성전자와 SK하이닉스가 HBM 시장에서 각각 46~49%를 차지하고, 미국 마이크론이 4~6%를 확보할 것으로 전망했다.
김재준 삼성전자 메모리 사업부 부사장은 지난달 31일 열린 3분기 실적 콘퍼런스콜에서 "현재 HBM3와 HBM3E 신제품 사업을 확대 중이다. 이미 주요 고객사와 내년 공급 물량에 대한 협의를 완료한 상황"이라며 "내년도 HBM 생산 능력을 올해보다 2.5배 이상 늘리겠다. AI 반도체 시장의 요구에 적극 대응해 글로벌 HBM 시장 선도 업체로서 시장 리더십을 강화하겠다"고 강조했다.
박명수 SK하이닉스 D램 마케팅 담당(부사장)은 지난달 실적 설명회에서 "HBM3와 HBM3E 모두 현 상황에서 '솔드아웃된 상태'"라며 "대부분의 고객사 및 파트너들과 2025년까지 기술 협업 및 생산능력을 논의하고 있다"고 설명했다.