Google, Gemini 2.0으로 AI 라인업 강화하여 성능과 경제성 강조
Google은 일반 사용자를 위한 Gemini 2.0 Flash 시리즈를 출시했으며 유료 사용자를 위한 실험용 모델 제품군을 공개했습니다. 2월 5일(현지시간) 발표된 이번 보도자료는 구글이 오픈AI(OpenAI)와 중국의 딥시크(DeepSeek)와 같은 경쟁업체에 대응하기 위해 비용 효율성과 생태계 통합에 중점을 두고 AI 서비스를 강화하기 위한 전략적 움직임을 보여준다.
Gemini 2.0 시리즈에는 기존 경량 Flash보다 훨씬 가벼운 모델인 2.0 Flash-Lite와 2.0 Flash Thinking, Thinking with Apps, 최상위 모델 2.0 Pro Experimental과 같은 기타 추론 모델이 포함됩니다. 처음에 개발자를 위해 출시된 Flash-Lite의 가격은 100만 토큰당 $0.019로 DeepSeek의 $0.014와 거의 비슷하며 $0.075인 OpenAI의 Chat GPT보다 훨씬 낮습니다. 이 가격 책정 전략은 AI 시장에서 높은 가격 경쟁력을 제공하겠다는 Google의 약속을 강조합니다.
Google의 Flash-Lite 모델 출시는 특히 향상된 비용 효율성으로 인해 기술 업계의 관심을 끌었습니다. 구글 대변인은 “플래시 1.5의 가격과 속도에 대해 많은 긍정적인 피드백을 받았다”며 “새 모델은 플래시 1.5와 동일한 속도와 비용으로 더 나은 품질을 제공한다”고 덧붙였다. 이 피드백은 경쟁이 치열한 AI 환경에서 중요한 요소인 비용 절감과 동시에 품질을 유지하는 데 중점을 두고 있음을 강조합니다.
경량 추론 모델의 향상은 이번 릴리스의 주목할만한 측면으로, OpenAI의 최근 역경량 추론 모델 o3-Mini의 도입과 일치합니다. 특히 2.0 Flash Thinking with Apps 모델은 검색, 날씨 및 지도와 같은 Google 앱과 통합하여 일상 생활 정보를 제공하는 기능이 두드러집니다. 이 통합을 통해 여행 일정 및 레스토랑 제안과 같은 보다 정확한 추천을 통해 일상 생활에서 AI의 실제 적용을 보여줄 수 있습니다.
Google의 전략에는 방대한 애플리케이션 및 서비스 생태계를 활용하여 우수한 AI 에이전트를 구축하는 것이 포함됩니다. 구글 관계자는 “커넥티드 앱은 제미니를 AI 기반 비서관으로 만들고 있다”며 AI 기능 향상을 위한 통합 앱의 역할을 강조했다. 연구진은 “앱과 결합된 새로운 추론 기능은 더 많은 작업을 수행하는 데 도움이 될 것”이라며 기능 향상과 사용자 참여 가능성을 강조했다.
최고급 모델 2.0 Pro Experimental도 공식 출시를 앞두고 있으며, AI 성능의 한계를 뛰어넘을 것을 약속하는 실험적 기능을 갖추고 있습니다. 이전에 1206-Lab으로 알려졌던 이 모델은 브랜드가 변경되었으며 1.5 Pro 모델을 기반으로 테스트를 계속 진행하고 있습니다. AI 종합 성능 평가 MMLU-PRO에서 2.0 Flash-Lite, Flash 및 Pro 모델은 각각 71.6%, 77.6% 및 79.1%의 정확도를 기록하여 이전 반복에 비해 상당한 개선을 나타냈습니다.
Google의 조치는 기본 모델을 2.0으로 업그레이드하여 전반적인 AI 성능을 향상시키는 동시에 모델 경량화를 통해 성능 및 가격 경쟁력을 달성하려는 광범위한 약속을 반영합니다. 이러한 접근 방식은 Google을 AI 업계의 강력한 플레이어로 포지셔닝할 뿐만 아니라 비용 효율적이고 효율적인 AI 솔루션의 새로운 표준을 설정합니다.