2024年11月18日、アリババクラウドは最新の大規模言語モデル(LLM)である Qwen-2.5 Turbo を発表しました。このモデルは、1Mトークンという業界トップクラスのコンテキスト長を実現しており、GPT-4o と同等の性能を持っています。さらに、API価格がわずか 0.05ドルと非常に低く、GPT-4の50分の1という驚異的なコストパフォーマンスを提供しています。
同年9月19日には、Qwen-2.5 も発表されました。このモデルは13種類の特化型サブモデルを備えており、特にコーディングや数学の分野で高い性能を発揮します。また、商用利用が可能なオープンソースライセンスで提供され、多様なビジネスシーンでの利用が期待されています。この記事では、最新モデルである「Qwen-2.5 Turbo」や、特化型モデル(コード・数学)、商用利用可能なオープンソースライセンスについて詳しく解説します。
- Qwen2.5: 0.5B、1.5B、3B、7B、14B、32B、72B
- Qwen2.5-Coder: 1.5B、7B、32B
- Qwen2.5-Math: 1.5B、7B、72B
Qwen-2.5 Turbo: 圧倒的スピードとコスト効率を誇る最新モデルの実力
2024年11月18日に発表された Qwen-2.5 Turbo は、1Mトークンという業界トップクラスのコンテキスト長を実現しています。このモデルは、長編小説10冊分、150時間分のスピーチのトランスクリプト、または30,000行のコードを解析可能で、長大なデータセットにも対応できる点が特徴です。
スパースアテンションメカニズムを採用したことで、100万トークンのコンテキストを処理する際の最初のトークンまでの待ち時間を、従来の4.9分からわずか68秒に短縮しています。これにより、処理速度が4.3倍に向上し、長編小説や大量のスピーチデータをわずか約1分で解析することが可能です。これらの性能向上により、Qwen-2.5 Turboはスピードと効率を求める利用者にとって、極めて魅力的な選択肢となっています。
出典:https://qwenlm.github.io/blog/qwen2.5-turbo/
Qwen-2.5 Turbo は、軽量で高速、そして安価なモデルとして設計されており、GPT-4o Miniを凌駕する性能を発揮しています。具体的には、GPT-4o Miniの8倍にあたる1Mトークンのコンテキスト長をサポートしつつ、高い処理性能を維持しています。この点は、長大なデータを扱うプロジェクトにおいて特に重要な強みです。
さらに、APIの価格面でも非常に競争力があります。以下に、2024年11月22日時点でのAPI価格を比較しました。
Qwen-turbo
- Input Token $0.05/Million Tokens
- Output Token $0.1/Million Tokens
Qwen-2.5 Turboは、GPT-4o Miniと比較して、約3倍安価なAPI価格を実現しており、コスト効率の面でも大きなアドバンテージを持っています。このため、予算を抑えながら高性能なAIモデルを活用したい企業や開発者に最適です。
GPT-4o mini
- Input Token $0.15/Million Tokens
- Output Token $0.60/Million Tokens
多言語対応と日本語性能で業界最高! Qwen-2.5の言語対応力とは?
次に、Qwen-2.5モデルの魅力について詳しく解説します。
Qwen-2.5は、多言語対応に優れており、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語を含む、29以上の言語をサポートしています。この広範な言語対応能力により、グローバルなプロジェクトや多言語対応が必要なアプリケーションに最適なモデルといえます。
以下の図が示す通り、日本語の言語性能を評価する基準である JMMLU において、Qwen-2.5 72B は 80.56ポイント を記録しました。このスコアは、他のオープンソースモデルである GPT-4o Mini、Llama-3.1、Mistral を大きく上回る結果となっています。
一方で、Llama-3.1 は高性能なオープンソースモデルとして評価されているものの、英語に特化している点が特徴であり、日本語能力ではQwen-2.5に劣ります。このような課題がある場合には、優れた日本語対応を提供するQwen-2.5を選択するのが賢明と言えるでしょう。
出典:https://www.alibabacloud.com/blog/qwen2-5-coder-series-powerful-diverse-practical_601765
開発者必見! Qwen2.5-Coderシリーズが実現する最強のコード生成能力
次に、コード性能に特化したモデルについて詳しく解説します。
Qwen2.5-Coderシリーズには、以下の3つのモデルが含まれています。
- Qwen2.5-Coder-1.5B
- Qwen2.5-Coder-7B
- Qwen2.5-Coder-32B
これらのモデルは、Qwen2.5のアーキテクチャを基に構築され、コード専用に最適化されています。さらに、5.5兆を超えるトークンを含む大規模なコーパスで事前学習されており、92種類のプログラミング言語に対応しています。この幅広いプログラミングスキルへの対応は、ソフトウェア開発やコード生成において高い汎用性を発揮します。
特に注目すべきは、Qwen2.5-Coder-32Bの性能です。このモデルは、最大128Kトークンという長大なコンテキストを処理できる能力を持っています。この特徴により、大規模なコードベースの解析や生成がスムーズに行えます。
さらに、GPT-4oと比較すると、パラメータ数が少ないにもかかわらず、コード生成性能において同等の成果を示しています。このことから、Qwen2.5-Coderシリーズは、クローズドモデルも含めてLLMのコード性能において最高性能であるだけでなく軽量なのでコストパフォーマンスと効率性の両面で優れていると言えます。
出典:https://arxiv.org/html/2409.12186v3
数学特化型モデルQwen-2.5-Math: 他モデルを圧倒する正確性
Qwenには、汎用型モデル、コード特化型モデル、数学特化型モデルの3種類が用意されています。数学特化型モデルとしては、Qwen-2.5-Mathの1.5B、7B、72Bの3つのサイズが提供されています。このモデルは、他のモデルとは異なり、事前学習データベースを数学に特化させた設計が特徴です。
Qwen-2.5-Mathは、入力コンテキストが4Kトークンに限定されているものの、その特化型設計により、数学の問題に対する優れた解答精度を実現しています。この設計の効果は、数学の評価基準であるMATHのスコアに明確に表れています。
Qwen-2.5-Math 72Bは、MATHにおいて85.9ポイントを記録しました。このスコアは、競合モデルである**GPT-4o(76.6)やClaude 3.5 Sonnet(71.1)**を上回り、Qwen-2.5-Math 72Bが現在利用可能な最高のオープンソース数学モデルとして評価される理由となっています。
出典:https://arxiv.org/html/2409.12122v1
オープンソースモデルの新時代! Qwen-2.5の柔軟性と利便性に迫る
Qwen-2.5は、Apache 2.0ライセンスの下でオープンソースとして無料で公開されており、商用利用が可能です。このライセンスにより、個人や企業が自由にモデルを活用し、製品やサービスの開発に利用できます。
さらに、すべてのモデルおよび関連ツールは、Hugging FaceやModelScopeなどの主要なプラットフォームから簡単にダウンロードできます。この対応により、幅広い開発者や研究者が、スムーズにモデルを導入してプロジェクトに組み込むことが可能になっています。ライセンスは以下のリンクからご覧ください。
https://www.apache.org/licenses/LICENSE-2.0.txt
まとめ: Qwen-2.5シリーズが選ばれる理由
-
Qwen-2.5 Turbo: 従来モデルの4.3倍高速化を実現
-
1Mトークンサポート: GPT-4o Miniよりも高性能でコストパフォーマンスに優れる
-
多言語対応と日本語性能: 29以上の言語に対応し、特に日本語においては業界最高性能を発揮
-
業界最高性能: コード特化型モデルおよび数学特化型モデルを提供
-
商用利用可能なオープンソース: 無料で商用利用が可能な柔軟なライセンス
Qwen-2.5は、軽量でコスト効率に優れたオープンソースモデルであり、商用利用が可能です。APIを通じて簡単に他のシステムと連携できるため、高性能なAIモデルを安価かつ効率的に活用したい方におすすめです。
さらに、コード生成や数学問題の解決において、業界最高クラスの性能を発揮します。これにより、開発者や研究者が高度な問題に対応しやすくなり、幅広い用途で利用されています。本記事では、Qwen-2.5シリーズの特長を中心に解説しましたが、今後も最新のAI技術や活用事例についての記事をお届けします。AIの可能性を最大限に引き出したい方は、ぜひ当サイトを定期的にご覧ください。
参考文献
- Qwen-2.5 coderについてはこちら
- Qwen-2.5 Mathについてはこちら
- Qwen-2.5 Github
- Qwen-2.5 Blog
- Qwen-2.5 API
- Qwen-2.5 turbo
- 商用利用のライセンスはこちら