엔비디아, 최신 AI 칩 ‘H200’ 공개…“H100보다 출력 두 배 빨라”

입력 2023-11-14 11:21

  • 가장작게

  • 작게

  • 기본

  • 크게

  • 가장크게

차세대 메모리 ‘HBM3’ 탑재
내년 2분기 출하 예정

▲엔비디아의 최신 그래픽처리장치(GPU) H200. 출처 엔비디아 홈페이지
▲엔비디아의 최신 그래픽처리장치(GPU) H200. 출처 엔비디아 홈페이지
인공지능(AI)용 반도체 시장을 주도하고 있는 엔비디아가 AI 언어모델 훈련용 최신 칩을 발표했다.

13일(현지시간) CNBC에 따르면 엔비디아는 대규모언어모델(LLM)을 훈련하도록 설계된 최신 그래픽처리장치(GPU) H200을 공개했다. H200은 챗GPT 개발사 오픈AI가 자사의 최신 LLM인 GPT-4 훈련에 사용하는 칩 H100의 업그레이드 버전이다.

H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3’가 탑재됐다. HBM(고대역폭메모리)은 데이터 전송 속도를 높여 고성능을 발휘하는 메모리로, 텍스트와 이미지 등을 생성하기 위해 훈련된 LLM의 추론에 도움이 된다.

엔비디아는 “HBM3을 사용하면 H200은 A100에 비해 용량은 약 2배 늘어나고 대역폭은 2.4배 증가한 초당 4.8테라바이트(TB)가 될 것”이라고 설명했다. 또 메타의 LLM 라마2에 H200을 사용한 테스트를 근거로 “H200의 출력이 H100보다 약 2배 빠르다”고 강조했다.

미국 투자은행 레이몬드제임스 추정에 따르면 현재 H100 칩 가격은 2만5000~4만 달러(약 3300만~ 5290만 원)다. LLM을 훈련하는 과정에는 수천 개의 칩이 필요하다. H200의 가격은 아직 알려지지 않았다.

엔비디아는 내년 2분기 H200 출하를 시작할 예정이다.

이안 벅 엔비디아 하이퍼스케일·HPC담당 부사장은 “대용량의 데이터를 고속으로 효율적으로 처리하기 위해 크고 빠른 GPU 메모리를 사용해야 한다”면서 “엔비디아의 H200을 통해 세계에서 가장 중요한 과제 중 일부를 해결하는 속도가 더 빨라질 것”이라고 말했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0

주요 뉴스

  • '얼굴 천재' 차은우 사라졌다⋯스타 마케팅의 불편한 진실 [솔드아웃]
  • 중학교 동급생 살해하려한 지적장애 소년…대법 “정신심리 다시 하라”
  • 5월 10일, 다주택자 '세금 폭탄' 터진다 [이슈크래커]
  • ‘가성비’ 수입산 소고기, 한우 가격 따라잡나 [물가 돋보기]
  • 삼성전자·현대차 목표가 상승…'깐부회동' 이후 샀다면? [인포그래픽]
  • 연말정산 가장 많이 틀리는 것⋯부양가족·월세·주택대출·의료비
  • '난방비 폭탄' 피하는 꿀팁…보일러 대표의 절약법
  • 이재용 장남 이지호 소위, 내달 해외 파견…다국적 연합훈련 참가
  • 오늘의 상승종목

  • 01.23 장종료

실시간 암호화폐 시세

  • 종목
  • 현재가(원)
  • 변동률
    • 비트코인
    • 132,175,000
    • -0.63%
    • 이더리움
    • 4,350,000
    • -0.84%
    • 비트코인 캐시
    • 873,000
    • -2.35%
    • 리플
    • 2,841
    • -0.77%
    • 솔라나
    • 188,400
    • -1.36%
    • 에이다
    • 531
    • -0.93%
    • 트론
    • 439
    • -2.66%
    • 스텔라루멘
    • 313
    • -0.95%
    • 비트코인에스브이
    • 26,330
    • -0.64%
    • 체인링크
    • 17,990
    • -1.21%
    • 샌드박스
    • 234
    • -0.43%
* 24시간 변동률 기준