論文の概要: CSRM-LLM: Embracing Multilingual LLMs for Cold-Start Relevance Matching in Emerging E-commerce Markets
- arxiv url: http://arxiv.org/abs/2509.01566v1
- Date: Mon, 01 Sep 2025 15:51:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.759797
- Title: CSRM-LLM: Embracing Multilingual LLMs for Cold-Start Relevance Matching in Emerging E-commerce Markets
- Title(参考訳): CSRM-LLM:新興Eコマース市場におけるコールドスタート関連マッチングのための多言語LLMの導入
- Authors: Yujing Wang, Yiren Chen, Huoran Li, Chunxu Xu, Yuchong Luo, Xianghui Mao, Cong Li, Lun Du, Chunyang Ma, Qiqi Jiang, Yin Wang, Fan Gao, Wenting Mo, Pei Wen, Shantanu Kumar, Taejin Park, Yiwei Song, Vijay Rajaram, Tao Cheng, Sonu Durgia, Pranam Kolari,
- Abstract要約: 多言語大言語モデル(LLM)を用いたコールドスタート関連マッチングフレームワークを提案する。
本実験は,CSRM-LLMと提案手法の有効性を実証し,実世界の展開に成功し,オンライン上で大きな成果を上げている。
- 参考スコア(独自算出の注目度): 27.671232183503133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As global e-commerce platforms continue to expand, companies are entering new markets where they encounter cold-start challenges due to limited human labels and user behaviors. In this paper, we share our experiences in Coupang to provide a competitive cold-start performance of relevance matching for emerging e-commerce markets. Specifically, we present a Cold-Start Relevance Matching (CSRM) framework, utilizing a multilingual Large Language Model (LLM) to address three challenges: (1) activating cross-lingual transfer learning abilities of LLMs through machine translation tasks; (2) enhancing query understanding and incorporating e-commerce knowledge by retrieval-based query augmentation; (3) mitigating the impact of training label errors through a multi-round self-distillation training strategy. Our experiments demonstrate the effectiveness of CSRM-LLM and the proposed techniques, resulting in successful real-world deployment and significant online gains, with a 45.8% reduction in defect ratio and a 0.866% uplift in session purchase rate.
- Abstract(参考訳): グローバルなeコマースプラットフォームが拡大を続ける中、企業は人間のラベルやユーザーの行動に制限があるため、コールドスタートの課題に直面している新しい市場に参入している。
本稿では,Coupangでの経験を公開し,新興eコマース市場における関連性マッチングの競争力のあるコールドスタートパフォーマンスを提供する。
具体的には,多言語大言語モデル(LLM)を用いたCSRM(Cold-Start Relevance Matching)フレームワークを提案する。(1)機械翻訳タスクによるLLMの言語間変換学習能力の活性化,(2)クエリ理解の強化と検索に基づくクエリ強化によるeコマース知識の活用,(3)マルチラウンド自己拡張学習戦略によるラベルエラーのトレーニングの軽減,の3つの課題に対処する。
CSRM-LLMと提案手法の有効性を実証し,実世界の展開に成功し,45.8%の欠陥率,セッション購入率0.866%のアップリフトを実現した。
関連論文リスト
- UniECS: Unified Multimodal E-Commerce Search Framework with Gated Cross-modal Fusion [20.13803245640432]
現在のeコマースマルチモーダル検索システムは2つの重要な制限に直面している。
彼らは、固定されたモダリティペアリングで特定のタスクを最適化し、統一された検索アプローチを評価するための包括的なベンチマークを欠いている。
画像,テキスト,およびそれらの組み合わせにわたるすべての検索シナリオを処理する統合マルチモーダルeコマース検索フレームワークであるUniECSを紹介する。
論文 参考訳(メタデータ) (2025-08-19T14:06:13Z) - Analyzing Mitigation Strategies for Catastrophic Forgetting in End-to-End Training of Spoken Language Models [79.90523648823522]
多段階連続学習は破滅的な忘れを招きかねない。
本稿では, 3つの緩和戦略, モデルマージ, LoRAスケーリング係数の割引, 経験リプレイについて検討する。
その結果,経験的リプレイが最も効果的であることが示され,他の手法と組み合わせることでさらに効果が得られた。
論文 参考訳(メタデータ) (2025-05-23T05:50:14Z) - ECKGBench: Benchmarking Large Language Models in E-commerce Leveraging Knowledge Graph [31.21413440242778]
大規模言語モデル(LLM)は、様々なNLPタスクでその能力を実証している。
プラットフォーム検索、パーソナライズされたレコメンデーション、カスタマーサービスといった実践的な実装によって証明されている。
LLMの事実性を評価するためのいくつかの手法が提案されているが、信頼性の欠如、高消費、ドメインの専門知識の欠如などの問題は、電子商取引における効果的な評価のギャップを残している。
電子商取引におけるLLMの能力を評価するためのデータセットであるECKGBenchを提案する。
論文 参考訳(メタデータ) (2025-03-20T09:49:15Z) - IntentionQA: A Benchmark for Evaluating Purchase Intention Comprehension Abilities of Language Models in E-commerce [71.37481473399559]
本稿では,eコマースにおけるLMの購入意図の理解を評価するためのベンチマークであるIntentionQAを提案する。
インテンションQAは、自動化パイプラインを使用して構築された3つの困難レベルにわたる4,360の慎重に計算された問題で構成されている。
人間の評価は、我々のベンチマークの高品質で低い偽陰性率を示す。
論文 参考訳(メタデータ) (2024-06-14T16:51:21Z) - A survey on fairness of large language models in e-commerce: progress, application, and challenge [8.746342211863332]
本調査では,eコマースにおける大規模言語モデル(LLM)の公平性について検討する。
進捗、アプリケーション、そして彼らが直面している課題を調べます。
この論文は、eコマースにおける公正性の課題を批判的に扱い、トレーニングデータとアルゴリズムのバイアスが不公平な結果をもたらすことを強調している。
論文 参考訳(メタデータ) (2024-05-15T23:25:19Z) - Conversational Recommender System and Large Language Model Are Made for Each Other in E-commerce Pre-sales Dialogue [80.51690477289418]
会話推薦システム(CRS)は、ユーザ表現を学習し、対話コンテキストに基づいて正確なレコメンデーションを提供するが、外部知識に依存している。
大規模言語モデル(LLM)は、微調整後の事前販売の対話を模倣する応答を生成するが、正確なレコメンデーションのためのドメイン固有の知識は欠如している。
本稿では,eコマース事前販売対話におけるLCMとCRSの組み合わせの有効性について検討する。
論文 参考訳(メタデータ) (2023-10-23T07:00:51Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - RF-LighGBM: A probabilistic ensemble way to predict customer repurchase
behaviour in community e-commerce [8.750970436444083]
中国におけるオンライン決済ユーザーの数は8億4400万人に達している。
コミュニティのeコマースプラットフォームが出現するにつれ、eコマースとソーシャルアプリケーションの統合の傾向はますます強まっている。
本稿では,データ駆動型手法を用いて,地域電子商取引顧客の再購入行動の予測について検討する。
論文 参考訳(メタデータ) (2021-09-02T05:38:16Z) - LotteryFL: Personalized and Communication-Efficient Federated Learning
with Lottery Ticket Hypothesis on Non-IID Datasets [52.60094373289771]
フェデレーション学習は、プライバシーを強化した、人気のある分散機械学習パラダイムである。
パーソナライズされたコミュニケーション効率の高いフェデレーション学習フレームワークであるLotteryFLを提案する。
LotteryFLはパーソナライズと通信コストの点で既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2020-08-07T20:45:12Z) - Cross-Lingual Low-Resource Set-to-Description Retrieval for Global
E-Commerce [83.72476966339103]
言語間情報検索は、国境を越えたeコマースにおける新しい課題である。
文脈依存型言語間マッピングの強化を図った新しい言語間マッチングネットワーク(CLMN)を提案する。
実験結果から,提案したCLMNは課題に対して印象的な結果をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-05-17T08:10:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。