엔비디아, 구글과 협력…AI 모델 '젬마' 최적화

입력 2024-02-23 11:10
  • 가장작게

  • 작게

  • 기본

  • 크게

  • 가장크게

엔비디아가 구글과 협력해 자사의 인공지능(AI) 플랫폼에서 AI 모델 '젬마'(Gemma)를 위한 최적화를 실시했다고 23일 밝혔다.

젬마는 구글의 새로운 경량 오픈 언어 모델이다. 20억(2B) 파라미터와 70억(7B) 파라미터 크기로 제공된다.

젬마는 구글의 멀티모달 모델인 제미나이(Gemini) 개발에 사용된 동일한 연구와 기술을 기반으로 구축됐다. 엔비디아는 구글과 긴밀히 협력해 엔비디아 텐서RT-LLM(TensorRT-LLM)으로 젬마의 성능을 가속화했다. 텐서RT-LLM은 데이터센터, 클라우드 혹은 엔비디아 RTX GPU가 탑재된 PC에서 대규모 언어 모델(LLM) 추론을 최적화하는 오픈 소스 라이브러리이다.

이를 통해 개발자는 전 세계 고성능 AI PC에 탑재된 1억 개 이상의 엔비디아 RTX GPU를 활용할 수 있다.

개발자들은 클라우드 상의 엔비디아 GPU에서도 젬마를 실행할 수 있다. 여기에는 H100 텐서 코어(H100 Tensor Core) GPU를 기반으로 하는 구글 클라우드 A3인스턴스(A3 instances)가 포함된다. 1초당 4.8테라바이트의 141GB HBM3e 메모리를 갖춘 엔비디아 H200 텐서 코어 GPU도 합류할 예정이다. 구글은 올해 안에 이를 배포할 예정이다.

엔비디아는 네모 프레임워크(NeMo Framework)가 적용된 엔비디아 AI 엔터프라이즈(AI Enterprise)와 텐서RT-LLM을 비롯한 광범위한 도구를 갖추고 있다. 엔터프라이즈 개발자들은 이들을 추가로 활용해 젬마를 미세 조정하고 최적화된 모델을 프로덕션 애플리케이션에 배포할 수 있다.

한편 엔비디아 기술 데모인 챗 위드 RTX에 젬마가 추가로 지원될 예정이다. 챗 위드 RTX는 검색 증강 생성(RAG)과 텐서RT-LLM 소프트웨어를 사용해 로컬 RTX 기반 윈도우(Windows) PC에서 사용자에게 생성형 AI 기능을 제공하는 기술이다.

사용자는 챗 위드 RTX를 통해 PC의 로컬 파일을 LLM에 쉽게 연결하고 자신의 데이터로 챗봇을 개인화할 수 있다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0

주요 뉴스

  • 단독 ‘작업대출’ 당한 장애인에 “돈 갚으라”는 금융기관…법원이 막았다
  • "중국 다시 뜬다…"홍콩 증시 중화권 ETF 사들이는 중학개미
  • 극장 웃지만 스크린 독과점 어쩌나…'범죄도시4' 흥행의 명암
  • 단독 전남대, 의대생 ‘집단유급’ 막으려 학칙 개정 착수
  • '눈물의 여왕' 결말은 따로 있었다?…'2034 홍해인' 스포글
  • 오영주, 중소기업 도약 전략 발표…“혁신 성장‧글로벌 도약 추진”
  • 소주·맥주 7000원 시대…3900원 '파격' 가격으로 서민 공략 나선 식당들 [이슈크래커]
  • 근로자의 날·어린이날도 연차 쓰고 쉬라는 회사 [데이터클립]
  • 오늘의 상승종목

  • 04.29 장종료

실시간 암호화폐 시세

  • 종목
  • 현재가(원)
  • 변동률
    • 비트코인
    • 89,699,000
    • -1.62%
    • 이더리움
    • 4,518,000
    • -5.02%
    • 비트코인 캐시
    • 657,000
    • -4.58%
    • 리플
    • 736
    • -1.08%
    • 솔라나
    • 191,600
    • -6.22%
    • 에이다
    • 647
    • -3.72%
    • 이오스
    • 1,140
    • -2.23%
    • 트론
    • 170
    • -1.16%
    • 스텔라루멘
    • 159
    • -2.45%
    • 비트코인에스브이
    • 92,000
    • -4.91%
    • 체인링크
    • 19,780
    • -2.22%
    • 샌드박스
    • 624
    • -5.45%
* 24시간 변동률 기준