美ㆍ日ㆍ중동 입지 키워 글로벌시장 확장할 것
북미 AI오케스트레이션 매출 30% 향상 목표

인공지능(AI) 기업의 효율화를 돕는 기업이 있다. 베슬 AI는 지휘자가 오케스트라에서 여러 악기를 맞춰 하나의 음악을 완성해내 듯 여러 AI 모델과 에이전트 AI 간 조합을 맞춰 효율적인 운영을 지원한다. AI 연산이 이뤄지는 데이터센터 안에서 그래픽처리장치(GPU)가 최대한 효율적으로 동작하도록 돕는 솔루션도 제공한다.
안재만 베슬AI 대표는 최근 본지와 만나 “여러 에이전트 모델이 협업하는 시스템의 구축을 지원한다”며 “또 GPU AI 컴퓨팅의 게이트웨이 역할을 한다. 제한된 GPU 환경에서도 거대언어모델(LLM) 등 다양한 모델을 빠르고 정확하게 운영할 수 있게 해준다”고 말했다. 단순히 하드웨어를 빌려주는 수준이 아니라 모델 학습·배포·운영 전 과정에서 성능 최적화와 비용 효율성을 동시에 지원하는 것이 강점이다.
보유한 GPU 자원을 최적화하고 ‘쓴 만큼 과금’하며 AI 기업들의 효율화를 돕는다. 안재민 대표는 “동일한 서버에서 10개 이상의 모델을 학습·운영할 수 있는 구조를 제공해 평균 70% 이상의 비용 절감을 가능하게 했다”며 “원래 1년에 50억 원 정도 들었다면 이를 10억~15억 원까지 낮춘 셈”이라고 설명했다.
GPU 사용 외에도 LLM 파인튜닝, 모델 배포 운영 시 성능 최적화 또한 지원한다. 그는 “대기업부터 스타트업까지 모두가 제한된 GPU 환경에서 최대한 많은 모델을 운영할 수 있게 돕는 것이 우리의 플랫폼 가치”라고 말했다. 실제로 정부에서 주관한 일명 ‘국가대표 AI’로 선정된 △네이버(하이퍼클로바X) △LG AI연구원(엑사원) △업스테이지(솔라)들은 베슬AI의 플랫폼을 통해 LLM 성능 최적화를 이뤄냈다.
향후 1년 간 목표는 글로벌 시장 확장이다. 안 대표는 “한국에서 이미 다양한 산업의 대기업이 쓰고 있지만, 미국·일본·중동에서의 입지를 빠르게 키우는 것이 단기 목표”라면서 “특히 북미의 경우 AI 오케스트레이션에 대한 수요가 높아 여기서 전체 매출의 30%를 올리는 게 목표”라고 말했다.
장기적으로는 수십 개의 모델이 동시에 학습·운영·협력할 수 있는 인프라를 구축해 AGI로 가는 길목을 열려고 한다. 그는 “베슬AI의 가치는 GPU와 LLM 양쪽에서 성능 최적화를 제공하며, 에이전트·AGI 등 차세대 AI 발전 단계에서도 다양한 기업의 조력자로 함께하는 것”이라고 말했다. 그는 이어 “좋은 모델이나 GPU만으로는 범용 인공지능(AGI)이 나오지 않는다. 지속적으로 데이터를 학습하고 운영하며 진화하는 AI 시스템을 구축하는 것이 핵심”이라며 “베슬 AI가 그 인프라 소프트웨어 레이어를 맡아 AGI 개발의 기반을 제공할 수 있다”고 강조했다.



