論文の概要: Improving Product Search Relevance with EAR-MP: A Solution for the CIKM 2025 AnalytiCup
- arxiv url: http://arxiv.org/abs/2510.23018v1
- Date: Mon, 27 Oct 2025 05:32:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.460502
- Title: Improving Product Search Relevance with EAR-MP: A Solution for the CIKM 2025 AnalytiCup
- Title(参考訳): EAR-MPによる製品検索関連性の向上: CIKM 2025 分析のソリューション
- Authors: JaeEun Lim, Soomin Kim, Jaeyong Seo, Iori Ono, Qimu Ran, Jae-woong Lee,
- Abstract要約: 本稿ではCIKM 2025 AnalytiCupのソリューションについて報告する。
提案手法では,全文を英語に翻訳することで,多言語データセットを正規化し,広範囲なデータクリーニングと正規化によって雑音を緩和する。
モデルトレーニングでは,DeBERTa-v3-large上に構築し,ラベルの平滑化,自己蒸留,ドロップアウトによる性能向上を行う。
制約付き計算では,F1スコアはQC0.8796,QI0.8744となる。
- 参考スコア(独自算出の注目度): 2.1262029296728224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual e-commerce search is challenging due to linguistic diversity and the noise inherent in user-generated queries. This paper documents the solution employed by our team (EAR-MP) for the CIKM 2025 AnalytiCup, which addresses two core tasks: Query-Category (QC) relevance and Query-Item (QI) relevance. Our approach first normalizes the multilingual dataset by translating all text into English, then mitigates noise through extensive data cleaning and normalization. For model training, we build on DeBERTa-v3-large and improve performance with label smoothing, self-distillation, and dropout. In addition, we introduce task-specific upgrades, including hierarchical token injection for QC and a hybrid scoring mechanism for QI. Under constrained compute, our method achieves competitive results, attaining an F1 score of 0.8796 on QC and 0.8744 on QI. These findings underscore the importance of systematic data preprocessing and tailored training strategies for building robust, resource-efficient multilingual relevance systems.
- Abstract(参考訳): 言語多様性とユーザ生成クエリに固有のノイズのため,多言語eコマース検索は困難である。
本稿では、CIKM 2025 AnalytiCup(AnalytiCup)において、我々のチーム(EAR-MP)が採用したソリューションについて述べる。
提案手法はまず,すべてのテキストを英語に翻訳することで,まず多言語データセットの正規化を行い,その後,広範囲なデータクリーニングと正規化によってノイズを緩和する。
モデルトレーニングでは,DeBERTa-v3-large上に構築し,ラベルの平滑化,自己蒸留,ドロップアウトによる性能向上を行う。
さらに,QCの階層的トークンインジェクションや,QIのハイブリッドスコアリング機構など,タスク固有のアップグレードも導入する。
制約付き計算では,F1スコアはQC0.8796,QI0.8744となる。
これらの知見は、堅牢で資源効率の良い多言語対応システムを構築するための、体系的なデータ前処理と調整されたトレーニング戦略の重要性を浮き彫りにした。
関連論文リスト
- A Data-Centric Approach to Multilingual E-Commerce Product Search: Case Study on Query-Category and Query-Item Relevance [4.017203385311908]
複数言語によるeコマース検索は、言語間で深刻なデータ不均衡に悩まされている。
2つのコアタスクのパフォーマンスを向上させるために,実用的で,アーキテクチャに依存しない,データ中心のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-24T17:27:35Z) - Analyticup E-commerce Product Search Competition Technical Report from Team Tredence_AICOE [1.1856441276327574]
本研究では,Tredence_AIチームが開発した多言語eコマース検索システムを提案する。
Gemma-3 12Bモデルは、オリジナルのデータと翻訳されたデータを使って最高のQCパフォーマンスを達成し、オリジナル、翻訳されたデータ、マイノリティクラスのデータ生成を使って最高のQIパフォーマンスを達成した。
これらのアプローチは最終リーダーボードで4位を獲得し、テストセットの平均F1スコアは0.8857だった。
論文 参考訳(メタデータ) (2025-10-23T15:49:20Z) - Alibaba International E-commerce Product Search Competition DILAB Team Technical Report [2.985561943631461]
本研究ではDILABチームが開発した多言語eコマース検索システムについて述べる。
最終予選では総合得点0.8819で5位となり、評価指標の安定性と高いパフォーマンスを実証した。
論文 参考訳(メタデータ) (2025-10-21T10:36:02Z) - From Multiple-Choice to Extractive QA: A Case Study for English and Arabic [51.13706104333848]
既存の多言語データセットを新しいNLPタスクに再利用する可能性について検討する。
本稿では,英語および現代標準アラビア語に対するアノテーションガイドラインと並列EQAデータセットを提案する。
我々は、残りの120のBELEBELE言語変種に対して、他の人が我々のアプローチを適用するのを助けることを目指しており、その多くがリソース不足と見なされている。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - PAXQA: Generating Cross-lingual Question Answering Examples at Training
Scale [53.92008514395125]
PAXQA(クロスリンガル(x)QAのアノテーションの計画)は、クロスリンガルQAを2段階に分解する。
本稿では、並列ビットから制約されたエンティティを抽出する語彙制約機械翻訳の新たな利用法を提案する。
これらのデータセットに基づいて微調整されたモデルは、複数の抽出されたQAデータセット上で、先行合成データ生成モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-04-24T15:46:26Z) - Alibaba-Translate China's Submission for WMT 2022 Quality Estimation
Shared Task [80.22825549235556]
我々は、UniTEという品質評価共有タスクにおいて、文レベルのMQMベンチマークを提出する。
具体的には、トレーニング中に3種類の入力形式と事前学習された言語モデルを組み合わせたUniTEのフレームワークを用いる。
その結果,我々のモデルは多言語・英語・ロシア語設定では第1位,英語・ドイツ語・中国語設定では第2位に達した。
論文 参考訳(メタデータ) (2022-10-18T08:55:27Z) - QEMind: Alibaba's Submission to the WMT21 Quality Estimation Shared Task [24.668012925628968]
我々は、WMT 2021 QE共有タスクに提出する。
テキストQEMindというQEシステムを構築するための翻訳の不確実性を評価するために有用な機能をいくつか提案する。
我々は、WMT 2020のダイレクトアセスメントQEタスクにおいて、我々の多言語システムが最高のシステムより優れていることを示す。
論文 参考訳(メタデータ) (2021-12-30T02:27:29Z) - QAFactEval: Improved QA-Based Factual Consistency Evaluation for
Summarization [116.56171113972944]
QAベースのメトリクスのコンポーネントを慎重に選択することは、パフォーマンスにとって重要であることを示す。
提案手法は,最良性能のエンテーメントに基づく測定値を改善し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-12-16T00:38:35Z) - Ensemble-based Transfer Learning for Low-resource Machine Translation
Quality Estimation [1.7188280334580195]
第5回機械翻訳会議(WMT20)の文レベルQE共有タスクに焦点を当てます。
このようなQEデータ不足の課題を克服するために、トランスファーラーニングを備えたアンサンブルベースの予測器推定QEモデルを提案する。
個々の言語で事前学習されたモデルと異なるレベルの並列学習コーパスと、ピアソンの相関値0.298とを組み合わせたアンサンブルモデルにおいて、最も優れた性能を実現する。
論文 参考訳(メタデータ) (2021-05-17T06:02:17Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。