LG, 올해 DeepSeek R1 수준 모델을 오픈 소스로 출시
LGAI연구소는 중국의 생성형 AI 딥시크(DeepSeek)와 유사한 대규모 언어모델(LLM)을 개발해 올해 안에 오픈소스로 공개할 계획이라고 배경훈 LGAI연구소장이 6일 밝혔다.
“우리는 곧 DeepSeek R1 수준의 모델을 개발하여 오픈 소스로 출시할 것입니다. 이후 정부가 인프라 투자와 관련해 구체적인 조치를 취하길 바란다”고 배 교수는 말했다. 그는 “약 200억∼400억원(1381만∼2762만달러)의 예산으로 연간 3∼4개의 대형 언어모델(LLM)을 개발해 업계에서 충분히 활용할 수 있다”고 덧붙였다.
배 부사장은 이날 서울 중구에서 열린 국가인공지능위원회(National AI Committee)에서 열린 한국 AI 산업의 경쟁력과 평가 논의회에서 “엔비디아 H100 GPU 2,480대가 있다면 한국에서도 딥시크(DeepSeek)와 같은 AI 모델을 개발할 수 있을 것”이라고 강조했다. 그러면서 “정부는 발전 역량이 있는 기업에 투자하고 올해 안에 기술력을 검증한 뒤 다음 단계 계획을 마련해야 한다”고 설명했다. 그러나 LG는 현재 512개의 H100 GPU만 보유하고 있습니다. 배 대표는 “LG는 현재 512대의 H100 GPU로 개발 중이지만 속도면에서 불리하다”고 지적했다.
배 대표는 LG전자가 딥시크(DeepSeek)보다 저렴한 비용으로 엑사온(Exaone)을 개발했다는 사실도 처음으로 밝혔다. 그는 “지난해 12월 오픈소스로 공개한 ‘엑사원 3.5’ 32B 모델 개발에 70억원을 투입했다”고 설명했다. 이 수치는 딥시크(Deeseek)가 V3 모델 훈련에 투자한 600만 달러보다 낮다. 특수 애플리케이션을 위해 설계된 프론티어 등급 모델로 분류되는 Exaone 32B 모델은 320억 개의 매개변수를 갖추고 있으며 고급 분석 및 소스 선택을 가능하게 하는 MSR(다단계 추론) 기능을 갖추고 있습니다.
배 대표는 또한 “엑사원 3.5에는 ‘MoE(Mixture of Experts)’ 기법이 적용됐는데, 이는 딥시크의 비용 효율적인 개발 성공의 핵심 요인이었다”고 강조했다. 현재 LG그룹 전 직원이 사용하고 있습니다.” 그는 “그룹 차원을 넘어 전 세계에 적극적으로 홍보했다면 더 많은 인정을 받을 수 있었을 것”이라며 아쉬움을 드러냈다. 그는 또한 “글로벌 경쟁력 있는 모델을 구축하고 비즈니스 가치를 창출했음에도 불구하고 국가 차원의 홍보가 부족했다”고 지적했다.
IITP(Institute for Information & Communications Technology Planning & Evaluation)의 LLM 성능 평가 보고서에 따르면 Exaone 3.5는 성능 면에서 DeepSeek V3 바로 아래에 있으며, 이는 DeepSeek 모델에 크게 뒤처지지 않음을 나타냅니다. 사용성, 긴 텍스트 처리, 코딩, 수학 등 다양한 영역에서 강력한 능력을 입증하여 글로벌 오픈소스 AI 모델과 경쟁력을 갖추고 있습니다. LG는 모든 자회사에 이를 배포하고 산업별 애플리케이션으로 지속적으로 업데이트할 계획입니다. 엑사원 3.5보다 앞선 모델로는 프랑스 미스트랄의 ‘스몰3(Small3)’, 중국 알리바바의 ‘큐웬 2.5-맥스(Qwen 2.5-Max)’, 딥시크(DeepSeek)의 ‘R1’, 오픈AI(OpenAI)의 ‘o3-Mini’ 등이 있다.
배 대표는 또 LG가 엑사원에 인프라에 1조원을 투자했다는 소문에 대해 “단일 LLM을 개발하는 데 100억원도 들지 않는다. 경우에 따라서는 총 200억∼400억원의 예산으로도 충분하다”고 말했다. 그는 “단순히 전시용 AI 모델을 만드는 것이 아니라 실제 산업 환경에 적용할 수 있는 비용 효율적인 개발에 집중해야 한다”며 LLM 성능의 수치 지표에 너무 많은 관심이 쏠리고 있다고 지적하며 보다 실용적인 접근이 필요하다고 강조했다.