‘작은 것이 아름답다’…생성형 AI 발전 둔화에 ‘소형언어모델’ 주목

입력 2025-09-13 19:00

  • 가장작게

  • 작게

  • 기본

  • 크게

  • 가장크게

부진한 LLM 성장 속도에 SLM 급부상
기업들, 맞춤형 저비용 모델 선호 뚜렷
에너지 효율성·속도에서 소형모델 강점
거대 클라우드 투자전략도 흔들릴 조짐

▲글로벌 기술업계가 인공지능(AI) 소형언어모델(SML)을 주목하고 있다고 영국 경제 주간지 이코노미스트가 소개했다.  (로이터연합뉴스)
▲글로벌 기술업계가 인공지능(AI) 소형언어모델(SML)을 주목하고 있다고 영국 경제 주간지 이코노미스트가 소개했다. (로이터연합뉴스)
생성형 인공지능(AI)의 핵심인 ‘거대언어모델(LLM)’의 발전이 기대만큼 빠르게 이뤄지지 않으면서 글로벌 기술업계가 ‘소형언어모델(SLM)’을 주목하고 있다.

13일 영국 경제 주간지 이코노미스트를 살펴보면 최근 기술업계는 생성형 AI 발전이 기대에 못 미치는 최근 상황을 스마트폰 업그레이드에 비유하고 있다.

오픈AI의 챗GPT 초기 버전은 2007년 애플의 첫 아이폰 출시만큼 혁신적이었지만 ‘GPT-5’와 같은 최신 AI 모델은 마치 새 스마트폰이 출시됐지만 소비자들이 큰 감흥을 느끼지 못하는 현 상황과 비슷하다는 것이다.

9일 초슬림 모델 ‘에어’를 포함한 아이폰17 시리즈가 공개됐을 때와 비슷한 반응이다.

생성형 AI 최전선에서의 진보 속도가 둔화하고 있다는 사실은 LLM이 처음의 기대를 충족하지 못하고 있음을 보여준다고 이코노미스트는 지적했다.

이어 더 중요한 변화는 기업들이 보다 작고 민첩한 대안으로 눈을 돌리고 있다는 점이라고 강조했다. 많은 기업이 자신들의 특정 필요에 맞게 맞춤화할 수 있는 모델을 선호하고 있다. SLM은 범용 LLM보다 비용이 훨씬 저렴하며 LLM의 ‘신적인 지능’이 오히려 불필요하게 보일 때가 많다. IBM의 AI 모델 연구 책임자인 데이비드 콕스는 “인사팀 챗봇이 고급 물리학을 알 필요는 없다”고 말했다.

SLM은 기업의 자체 서버는 물론 클라우드 환경에서도 손쉽게 실행할 수 있으며, 사람을 보조하거나 대체하는 AI 에이전트를 구동하는 데도 유용하다.

크기가 작아서 스마트폰, 자율주행차, 로봇 등 속도와 에너지 효율성이 중요한 기기에 특히 적합하다. SLM이 더 신뢰성을 갖게 된다면 막대한 비용을 들여 클라우드 기반 LLM에 투자하지 않겠다는 애플 등 디바이스 제조사들의 선택을 정당화하게 될 가능성이 크다고 이코노미스트는 내다봤다.

LLM과 SLM의 명확한 구분 기준은 없다. 주로 훈련에 사용된 파라미터(매개변수)의 수가 기준이 된다. LLM은 수천억 개의 파라미터를 갖지만 SLM은 400억 개 이하, 심지어 가장 작은 모델은 10억 개 미만으로 구성된다.

SLM의 훈련 기법 개선으로 그 성능이 빠르게 향상되고 있다. 과거에는 스스로 웹을 돌아다니며 학습해야 했지만, 이제는 더 큰 모델이 작은 모델을 가르치는 방식으로 학습한다. AI 벤치마킹 업체 아티피셜애널리시스에 따르면 최근 엔비디아가 출시한 파라미터 90억 개 규모의 ‘네모트론 나노’ 모델은 페이스북 모회사 메타가 4월 발표한 모델보다 40배 작지만 다양한 테스트에서 더 뛰어난 성능을 보였다. 시장조사업체 카운터포인트의 모히트 아그라왈 리서치 부문 이사는 “오늘날의 작은 모델은 작년의 큰 모델보다 훨씬 강력하다”고 설명했다.

성능 향상은 기업 고객의 관심을 끌고 있다. IT 전문 리서치 업체 가트너는 LLM의 ‘환각(Hallucination)’ 문제 등으로 사용자 피로감이 확산하고 있다고 지적했다. 이에 기업들은 산업별 데이터를 학습시킨 특화형 모델을 선호하며, 올해 이들 모델에 대한 수요는 LLM보다 두 배 빠르게 성장할 것으로 예상된다. 시간이 지남에 따라 기업들은 자체적으로 이런 특화 모델을 개발할 가능성이 높다.

경제성도 SLM이 각광 받는 이유다. 초기 생성형 AI 열풍 때는 ‘무조건 투자’ 전략이 일반적이었으나, 지금은 ‘투자 대비 수익(ROI)’에 더 집중하고 있다. 여전히 많은 작업에 LLM을 사용하지만 반복적이고 한정된 업무는 SLM으로 처리해 비용을 절감하려 한다.

한 벤처캐피털 업계 관계자는 “미국 샌프란시스코에서 중국 베이징으로 갈 때는 보잉 777이 필요하지만 샌프란시스코에서 로스앤젤레스(LA)로 갈 때는 그렇지 않다”며 “가장 무거운 모델을 모든 문제에 적용하는 것은 비합리적”이라고 비유했다.

콕스 책임자는 경제성 사례로 자사가 개발한 ‘독클링(Docling)’을 소개했다. 이는 영수증 등 PDF 문서를 저장가능한 데이터로 변환하는 프로그램으로, 약 2억5000만 개 파라미터를 가진 초소형 모델에서 구동된다.

그는 “LLM에서 실행했다면 비용 효율성이 전혀 맞지 않았을 것”이라고 언급했다. 또한 작은 모델은 엔비디아의 그래픽처리장치(GPU)처럼 고가의 칩이 아니라 중앙처리장치(CPU)에서도 구동될 수 있다. 콕스는 GPU를 ‘항상 정비소에 있는 까다로운 페라리’에 비유하며 CPU의 장점을 강조했다.

SLM은 기업들이 AI 에이전트를 더 많이 도입할수록 더욱 매력적으로 보일 수 있다. 엔비디아 리서치는 6월 발표한 논문에서 “7억 파라미터 규모의 모델은 25배 더 큰 모델보다 10~30배 저렴하게 운영될 수 있다”고 주장했다.

논문은 기업들이 하나의 거대한 LLM 대신 ‘레고 블록’처럼 작은 전문 모델을 조합해 AI 에이전트를 구성하는 방식을 제안했다.

다만 엔비디아의 카리 브리스키 부사장은 이 논문이 회사의 전략적 방향을 대변하지는 않는다고 밝혔다. 그는 “비즈니스 고객들은 다양한 크기의 모델을 원한다”며 “가장 큰 모델은 가장 어려운 작업을 처리하는 데 여전히 필요하다”고 강조했다. 또한 “LLM의 성능을 계속 끌어올리는 것이 SLM의 성능 향상에도 도움이 된다”고 덧붙였다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0

주요 뉴스

  • 쯔양·닥터프렌즈·닥터딩요와 함께하는 국내 최초 계란 축제 '에그테크코리아 2025' 개최
  • '소년범 논란' 조진웅이 쏘아 올린 공…"과거 언제까지" vs "피해자 우선"
  • 박나래, 결국 활동 중단⋯'나혼산'서도 못 본다
  • LCC 3사, 진에어 중심 통합…내년 1분기 출범 목표
  • 기술력으로 中 넘는다…벤츠 손잡고 유럽 공략하는 LG엔솔
  • "6천원으로 한 끼 해결"…국밥·백반 제친 '가성비 점심'
  • 엑시노스 2600 새 벤치마크 성능 상승… 갤럭시 S26 기대감 커져
  • AI 데이터센터 ‘폭증’하는데…전력망은 20년째 제자리 [역주행 코리아]
  • 오늘의 상승종목

  • 12.08 장종료

실시간 암호화폐 시세

  • 종목
  • 현재가(원)
  • 변동률
    • 비트코인
    • 136,228,000
    • +1.86%
    • 이더리움
    • 4,661,000
    • +2.48%
    • 비트코인 캐시
    • 893,000
    • +1.13%
    • 리플
    • 3,099
    • +1.81%
    • 솔라나
    • 202,000
    • +2.02%
    • 에이다
    • 638
    • +1.43%
    • 트론
    • 427
    • +0.23%
    • 스텔라루멘
    • 362
    • +0.56%
    • 비트코인에스브이
    • 30,300
    • -0.56%
    • 체인링크
    • 20,870
    • +0.1%
    • 샌드박스
    • 213
    • -0.47%
* 24시간 변동률 기준