論文の概要: Compass-v3: Scaling Domain-Specific LLMs for Multilingual E-Commerce in Southeast Asia
- arxiv url: http://arxiv.org/abs/2509.09121v1
- Date: Thu, 11 Sep 2025 03:23:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.215561
- Title: Compass-v3: Scaling Domain-Specific LLMs for Multilingual E-Commerce in Southeast Asia
- Title(参考訳): Compass-v3:東南アジアにおける多言語Eコマースのためのドメイン特化LDMのスケーリング
- Authors: Sophia Maria,
- Abstract要約: Compass-v3は、トークン当たり245Bの合計パラメータと71Bのアクティブ値を持つ、垂直領域のMixture-of-Expertsモデルである。
マルチリンガルコーパスの12Tトークンと大規模な合成eコマース命令でトレーニングされている。
これは、Shopeeの産業規模のeコマースプラットフォームに広く応用されている。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) excel in general-domain applications, yet their performance often degrades in specialized tasks requiring domain-specific knowledge. E-commerce is particularly challenging, as its data are noisy, heterogeneous, multilingual, and highly dynamic. We present Compass-v3, a vertical-domain Mixture-of-Experts (MoE) model with 245B total parameters and 71B active per token, designed for Southeast Asian e-commerce. Compass-v3 adopts fewer but larger experts, combined with hardware-efficient optimizations-such as intra-node expert parallelism and a customized memcpy operator-to maximize GPU utilization. The model is trained on 12T tokens of curated multilingual corpora and large-scale synthetic e-commerce instructions using a mixed-training strategy. To enhance alignment, we propose Optimal-Transport Direct Preference Optimization (OTPO), which captures token-level distinctions and improves instruction adherence in commerce-specific scenarios. Extensive evaluations demonstrate that Compass-v3 delivers state-of-the-art e-commerce performance, surpassing DeepSeek-V3.1, GPT-4 series, and Qwen3-235B. Moreover, Compass-v3 demonstrates strong multilingual capability across low-resource Southeast Asian languages (Indonesian, Thai, Filipino, Vietnamese, Malay, Taglog) and Portuguese while sustaining competitive performance on general benchmarks. It has already been widely applied in Shopee's industrial-scale e-commerce platform and is gradually replacing OpenAI's traffic, now accounting for over 70\% of total LLM usage, highlighting its dual strengths in specialized commerce expertise and broad linguistic competence.
- Abstract(参考訳): 大規模言語モデル(LLM)は汎用ドメインアプリケーションでは優れているが、ドメイン固有の知識を必要とする特殊なタスクでは性能が劣化することが多い。
データが騒々しく、異質で、多言語で、非常に動的であるため、Eコマースは特に難しい。
東南アジアのeコマース向けに設計された245Bの合計パラメータと71Bのアクティブなトークンを持つ,垂直領域混合(MoE)モデルであるCompass-v3を提案する。
Compass-v3は少ないが大きなエキスパートを採用し、ノード内のエキスパート並列処理やカスタマイズされたmemcpy演算子など、ハードウェア効率のよい最適化と組み合わせてGPU使用率を最大化する。
このモデルは、多言語コーパスの12Tトークンと、混合学習戦略を用いた大規模合成電子商取引命令に基づいて訓練される。
整合性を高めるために,トークンレベルの区別を捕捉し,商取引特有のシナリオにおける命令順守を改善するOTPO(Optimal-Transport Direct Preference Optimization)を提案する。
Compass-v3はDeepSeek-V3.1、GPT-4シリーズ、Qwen3-235Bを上回り、最先端のeコマースのパフォーマンスを提供する。
さらに、Compass-v3は、低リソースの東南アジア言語(インドネシア語、タイ語、フィリピン語、ベトナム語、マレー語、タッグログ語)とポルトガル語にまたがる強力な多言語機能を示し、一般的なベンチマークでの競争性能を維持している。
既にShopeeの産業規模のeコマースプラットフォームに広く適用されており、OpenAIのトラフィックを徐々に置き換えており、現在ではLLMの総使用量の70%以上を占めている。
関連論文リスト
- MultiPL-MoE: Multi-Programming-Lingual Extension of Large Language Models through Hybrid Mixture-of-Experts [56.106778414865126]
MultiPL-MoEはエキスパートとトークンレベルのエキスパートのハイブリッドである。
セグメントレベルのMoEは、プログラミング言語の構文構造と文脈パターンをよりよく捉えるために、2つの革新的な設計を取り入れている。
論文 参考訳(メタデータ) (2025-08-22T06:24:52Z) - UniECS: Unified Multimodal E-Commerce Search Framework with Gated Cross-modal Fusion [20.13803245640432]
現在のeコマースマルチモーダル検索システムは2つの重要な制限に直面している。
彼らは、固定されたモダリティペアリングで特定のタスクを最適化し、統一された検索アプローチを評価するための包括的なベンチマークを欠いている。
画像,テキスト,およびそれらの組み合わせにわたるすべての検索シナリオを処理する統合マルチモーダルeコマース検索フレームワークであるUniECSを紹介する。
論文 参考訳(メタデータ) (2025-08-19T14:06:13Z) - Tower+: Bridging Generality and Translation Specialization in Multilingual LLMs [20.94201888693295]
Tower+は,翻訳機能と多言語汎用テキスト機能の両方にわたって,強力なパフォーマンスを実現するように設計されたモデルスイートである。
学習の各段階で、汎用タスクだけでなく、翻訳の性能を高めるためにデータを生成し、キュレートする。
この結果から,特定のビジネスドメインを最適化しながら,フロンティアモデルに対抗できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-06-20T15:30:06Z) - Compass-V2 Technical Report [0.0]
東南アジアの言語やeコマースアプリケーションに特化した軽量なMixture-of-Experts(MoE)モデルであるCompass-v2を紹介する。
モデルの性能と推論コストのバランスをとるため、モデルには30Bの合計パラメータと5Bのアクティブパラメータが組み込まれ、細粒度と共有された専門家モジュールが組み込まれている。
提案モデルでは,30B未満のモデル間でのSEA多言語およびeコマースのパフォーマンスを示すとともに,推論コストの大幅な低減を図っている。
論文 参考訳(メタデータ) (2025-04-22T02:08:45Z) - ChineseEcomQA: A Scalable E-commerce Concept Evaluation Benchmark for Large Language Models [15.940958043509463]
我々は,eコマースの基本的な概念に着目した,スケーラブルな質問応答ベンチマークである textbf ChineseEcomQA を提案する。
基本的な概念は、さまざまなeコマースタスクに適用できるように設計されている。
一般性と特異性を慎重にバランスさせることで、ChinaEcomQAは広範囲にわたるeコマースのコンセプトを効果的に区別する。
論文 参考訳(メタデータ) (2025-02-27T15:36:00Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning: Insights and Observations [59.056367787688146]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
我々は10の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
翻訳を利用して、10個の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z) - Bilingual Terminology Extraction from Non-Parallel E-Commerce Corpora [16.795361175663153]
電子商取引における非並列比較コーパスからバイリンガル用語を抽出する新しい枠組みを提案する。
本フレームワークは,ソース側用語とターゲット側文の深い意味関係を十分に活用することにより,対応する対象用語を抽出することができる。
論文 参考訳(メタデータ) (2021-04-15T11:59:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。