실시간
뉴스

e비즈*솔루션

알리바바클라우드, 하이브리드 추론모델 ‘큐원3’ 공개

큐원3 모델의 주요 벤치마크 결과. [Ⓒ 알리바바클라우드]
큐원3 모델의 주요 벤치마크 결과. [Ⓒ 알리바바클라우드]

[디지털데일리 권하영기자] 알리바바 클라우드는 오픈소스 대규모언어모델(LLM) 제품군의 최신 세대인 ‘큐원3(Qwen3)’를 7일 공개했다.

큐원3 시리즈는 6개의 밀집(dense) 모델과 2개의 전문가혼합(Mixture-of-Experts, 이하 MoE) 모델로 구성됐며, 모바일기기·스마트글래스·자율주행차·로보틱스 등 차세대 애플리케이션 개발을 위한 유연성을 제공한다.

밀집 모델(0.6B, 1.7B, 4B, 8B, 14B, 32B 파라미터)과 MoE 모델(3B 활성 30B, 22B 활성 235B)을 포함한 모든 큐원3 모델은 오픈소스로 제공된다.

큐원3는 알리바바 클라우드가 선보이는 최초의 하이브리드 추론 모델로, 기존 LLM 기능과 고급형 동적 추론을 결합했다. 큐원3 모델은 수학·코딩·논리적추론과 같은 복잡한 다단계 작업을 위한 사고 모드와 빠른 범용 응답을 위한 비사고 모드 간에 원활하게 전환할 수 있다.

API를 통해 큐원3에 접근하는 개발자는 최대 3만8000개의 토큰까지 사고 지속 시간을 세밀하게 조정할 수 있어, 지능형 성능과 컴퓨팅 효율성 간 최적화된 균형을 유지할 수 있다. 특히 큐원3-235B-A22B(Qwen3-235B-A22B) MoE 모델은 다른 최신 모델 대비 도입 비용을 낮췄다.

이전 모델인 큐원2.5의 두 배 규모인 총 36조개에 달하는 방대한 데이터셋을 학습한 큐원3는 추론·지시수행·도구활용·다국어작업 등 여러 분야에서 성능이 크게 향상됐다. 119개의 언어 및 방언을 지원하며, ‘모델 컨텍스트 프로토콜(MCP)’ 지원 및 강력한 함수호출(function-calling) 기능을 통해 복잡한 에이전트 기반 작업에서도 오픈소스 모델 중 선도적인 성능을 제공한다. 추론 성능은 수학·코딩·논리적추론 벤치마크에서 이전 큐원 모델을 능가했다는 설명이다.

큐원3 모델은 현재 허깅페이스·깃허브·모델스코프를 통해 무료로 다운로드할 수 있다.

디지털데일리 네이버 메인추가
x