‘Qwen3‑Instruct‑2507’ 공개… 256K 토큰 처리와 추론 품질 대폭 향상

알리바바가 2025년 7월 21일, 초거대 언어모델(LLM) Qwen3의 최신 버전인 Qwen3‑235B‑A22B‑Instruct‑2507을 공식 공개했다. 이번 업데이트는 지난 4월 첫 공개된 Qwen3 시리즈 이후 3개월 만에 발표된 대규모 성능 강화 버전으로, 특히 장문 이해 능력과 명령 수행 정확도가 크게 개선됐다.

알리바바 LLM Qwen3의 7월 업데이트 버전이 세계 최고 수준의 성능을 기록했다.  사진=알리바바
알리바바 LLM Qwen3의 7월 업데이트 버전이 세계 최고 수준의 성능을 기록했다.  사진=알리바바

Qwen3‑Instruct‑2507은 총 235B 파라미터 중 22B 파라미터만을 활성화하는 Mixture-of-Experts(MoE) 구조를 바탕으로, 경량 연산과 고성능 추론의 균형을 유지한다. 이번 7월 버전은 특히 인스트럭션 튜닝을 중심으로 개발되었으며, AI 모델이 사용자 지시를 더 정확하게 해석하고 응답하도록 학습되었다.

특히 가장 큰 주목을 받은 부분은 256,000 토큰에 이르는 문맥 길이(Context Length)다. 이는 OpenAI GPT-4의 32K, Claude 3.5의 200K 대비 확장된 수치로, 법률 문서나 기술 매뉴얼 등 초장문 텍스트를 손실 없이 처리할 수 있는 수준이다. 실제 테스트에서는 장문 리포트 요약, 코드베이스 분석, 연속 대화의 문맥 유지력에서 유의미한 향상이 확인됐다.

또한 Qwen3‑Instruct‑2507은 총 36조 개 이상의 학습 토큰을 기반으로 학습되었으며, 119개 언어를 지원해 다국어 처리에서도 범용성을 확보했다. 명령 이해와 수행, 논리 추론, 코드 생성 등 광범위한 영역에서 정밀도가 높아졌으며, 자체 공개한 벤치마크에 따르면 기존 Qwen3 대비 수학, 추론, 코드 응답 품질이 고르게 개선되었다.

Qwen3의 최신 버전은 GPT-4, Claude 3.5, Gemini 1.5 등 주요 폐쇄형 모델과의 비교에서도 일정 영역에서 경쟁 우위를 보인다. 특히 오픈소스 라이선스로 공개되었다는 점에서, 기업과 연구기관이 제약 없이 상용화하거나 자체 튜닝에 활용할 수 있다는 장점이 있다.

알리바바 측은 “Qwen3‑Instruct‑2507은 instruction 품질과 초장문 처리력에서 새로운 기준을 제시하는 모델”이라며, “빠른 응답이 필요한 Fast Mode와 높은 정확도를 제공하는 Deep Mode의 유연한 전환을 통해 다양한 비즈니스 시나리오에 적용될 수 있다”고 밝혔다.

업계 전문가들은 이번 7월 버전을 두고 “단순한 파라미터 스케일 확장이 아니라, 실질적 사용자 응답 품질과 문맥 유지 능력을 실현한 현실 최적형 오픈소스 LLM”이라고 평가했다.

Qwen3는 이번 업데이트를 통해 OpenAI, Anthropic, Google 등과의 기술 경쟁 구도 속에서 오픈소스 진영의 대표 주자로서 입지를 강화할 전망이다.

신주백 기자  jbshin@kmjournal.net

저작권자 © KMJ 무단전재 및 재배포 금지