Qwen、3970億パラメータMoEモデルFP8版の重みをオープンソース化
AlibabaのQwenチームは、3970億パラメータのMixture-of-ExpertsモデルQwen3.5-397B-A17B-FP8のオープン重みを公開しました。SGLangの推論サポートが利用可能になり、vLLM統合も間もなく対応予定です。
Alibaba CloudのQwenプロジェクトは、先進的な大規模言語モデルQwen3.5-397B-A17B-FP8のモデル重みをオープンソース化し、世界中の開発者コミュニティに公開しました。このモデルは総3970億パラメータを備え、Mixture-of-Experts(MoE)アーキテクチャで170億アクティブパラメータを持ち、FP8精度で最適化されています。
主要な推論フレームワークへの適応を経ての公開です。SGLangのサポートがマージされ、高性能での実行が可能になりました。vLLM統合のためのプルリクエストがvLLMリポジトリに提出され、数日以内にマージされる見込みです。
モデル重みはHugging FaceおよびModelScopeプラットフォームでホストされており、モデルカードに推論例のコードが記載されています。開発者はこれでQwen3.5の推論、コーディング、多言語タスクなどの機能を試せます。
Alibaba Cloudが開発するQwenは、オープンソースAIを推進し、主要プロプライエタリシステムに匹敵するモデルを提供し続けています。このFP8量子化版は、パフォーマンスとリソース効率のバランスを取っています。
重要ポイント
- Qwen3.5-397B-A17B-FP8モデル重みのオープンソース公開
- 総3970億パラメータ、170億アクティブ(MoE)
- SGLangサポートがマージ済み
- vLLMプルリクエスト提出(近日マージ予定)
- Hugging FaceおよびModelScopeで利用可能
トピック
QwenAlibaba CloudLLMopen sourceMixture of ExpertsFP8Hugging Faceinference frameworks
Original Post
Loading post...