엔비디아, 최신 AI 칩 ‘H200’ 공개…“H100보다 출력 두 배 빨라”

입력 2023-11-14 11:21
  • 가장작게

  • 작게

  • 기본

  • 크게

  • 가장크게

차세대 메모리 ‘HBM3’ 탑재
내년 2분기 출하 예정

▲엔비디아의 최신 그래픽처리장치(GPU) H200. 출처 엔비디아 홈페이지
▲엔비디아의 최신 그래픽처리장치(GPU) H200. 출처 엔비디아 홈페이지
인공지능(AI)용 반도체 시장을 주도하고 있는 엔비디아가 AI 언어모델 훈련용 최신 칩을 발표했다.

13일(현지시간) CNBC에 따르면 엔비디아는 대규모언어모델(LLM)을 훈련하도록 설계된 최신 그래픽처리장치(GPU) H200을 공개했다. H200은 챗GPT 개발사 오픈AI가 자사의 최신 LLM인 GPT-4 훈련에 사용하는 칩 H100의 업그레이드 버전이다.

H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3’가 탑재됐다. HBM(고대역폭메모리)은 데이터 전송 속도를 높여 고성능을 발휘하는 메모리로, 텍스트와 이미지 등을 생성하기 위해 훈련된 LLM의 추론에 도움이 된다.

엔비디아는 “HBM3을 사용하면 H200은 A100에 비해 용량은 약 2배 늘어나고 대역폭은 2.4배 증가한 초당 4.8테라바이트(TB)가 될 것”이라고 설명했다. 또 메타의 LLM 라마2에 H200을 사용한 테스트를 근거로 “H200의 출력이 H100보다 약 2배 빠르다”고 강조했다.

미국 투자은행 레이몬드제임스 추정에 따르면 현재 H100 칩 가격은 2만5000~4만 달러(약 3300만~ 5290만 원)다. LLM을 훈련하는 과정에는 수천 개의 칩이 필요하다. H200의 가격은 아직 알려지지 않았다.

엔비디아는 내년 2분기 H200 출하를 시작할 예정이다.

이안 벅 엔비디아 하이퍼스케일·HPC담당 부사장은 “대용량의 데이터를 고속으로 효율적으로 처리하기 위해 크고 빠른 GPU 메모리를 사용해야 한다”면서 “엔비디아의 H200을 통해 세계에서 가장 중요한 과제 중 일부를 해결하는 속도가 더 빨라질 것”이라고 말했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0

주요 뉴스

  • 단독 부산‧광주‧대구 ‘휘청’…지역 뿌리산업 덮친 ‘회생‧파산 도미노’
  • 홍콩은 거래 시작인데…美 이더리움 현물 ETF는 5월 승인 ‘먹구름’
  • HLB, 간암 신약 美FDA 허가 초읽기…‘승인 확신’ 이유는?
  • 서울대·세브란스병원·고려대병원 오늘 외래·수술 없다
  • 극장 웃지만 스크린 독과점 어쩌나…'범죄도시4' 흥행의 명암
  • 산은이 '멱살' 잡고 가는 태영건설 워크아웃 'D-데이'
  • 소주·맥주 7000원 시대…3900원 '파격' 가격으로 서민 공략 나선 식당들 [이슈크래커]
  • 근로자의 날·어린이날도 연차 쓰고 쉬라는 회사 [데이터클립]
  • 오늘의 상승종목

  • 04.30 10:49 실시간

실시간 암호화폐 시세

  • 종목
  • 현재가(원)
  • 변동률
    • 비트코인
    • 91,465,000
    • +1.15%
    • 이더리움
    • 4,575,000
    • -2.35%
    • 비트코인 캐시
    • 663,000
    • -1.92%
    • 리플
    • 735
    • +0.14%
    • 솔라나
    • 197,000
    • -0.51%
    • 에이다
    • 655
    • -1.06%
    • 이오스
    • 1,159
    • +1.49%
    • 트론
    • 170
    • -1.73%
    • 스텔라루멘
    • 160
    • -1.23%
    • 비트코인에스브이
    • 93,300
    • -1.94%
    • 체인링크
    • 20,060
    • +0.35%
    • 샌드박스
    • 633
    • -1.86%
* 24시간 변동률 기준