Perplexity AI、ウェブ規模検索向けSOTAエンベディングモデル2ファミリーを公開
Perplexity AIは、実世界のウェブ規模検索に最適化された2つの最先端エンベディングモデルファミリー、pplx-embed-v1とpplx-embed-context-v1を公開しました。0.6Bおよび4Bバリアントで提供され、主要ベンチマークでトップ競合を上回ります。
Perplexity AIは、実世界のウェブ規模検索アプリケーション向けに特別に設計された2つの新しいエンベディングモデルファミリー、pplx-embed-v1とpplx-embed-context-v1を公開しました。
これらの最先端(SOTA)モデルは、効率と性能で優れています。4B INT8バリアントは、MTEB Multilingual v2検索リーダーボードでQwen3-Embedding-4BやGemini-embedding-001などのトップモデルに匹敵または上回り、GBあたり4倍のページを保存可能です。バイナリバリアントはさらに効率を向上させ、優れた検索精度を維持しつつGBあたり32倍のページを保存します。
ConTEB文脈検索ベンチマークでは、pplx-embed-context-v1-4B(INT8)がvoyage-context-3(79.45%)とAnthropic Contextual(72.4%)を上回りました。
これらのモデルを評価するため、Perplexityは内部ウェブ規模ベンチマークPPLXQuery2QueryとPPLXQuery2Docを開発しました。これらは10億ページ超から抽出した3,000万ドキュメントに対して11万5千の実クエリで評価されています。
両ファミリーとも0.6Bおよび4Bパラメータサイズで提供されます。Perplexity API、MITライセンスのHugging Face、および詳細な技術論文で利用可能です。
重要ポイント
- 2つのモデルファミリー:pplx-embed-v1、pplx-embed-context-v1
- 4B INT8:MTEB Multilingual v2でQwen3-Embedding-4B、Gemini-embedding-001に匹敵/上回り、GBあたり4倍のページ
- バイナリバリアント:GBあたり32倍のページ
- pplx-embed-context-v1-4B (INT8):ConTEBでvoyage-context-3 (79.45%)、Anthropic Contextual (72.4%)を上回る
- ベンチマーク:11万5千クエリ vs. 3,000万ドキュメント(10億ページ超から)
- バリアント:0.6B、4Bパラメータ
- Hugging Face(MITライセンス)、Perplexity APIで利用可能