論文の概要: Cross-Lingual Low-Resource Set-to-Description Retrieval for Global
E-Commerce
- arxiv url: http://arxiv.org/abs/2005.08188v1
- Date: Sun, 17 May 2020 08:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:24:25.906364
- Title: Cross-Lingual Low-Resource Set-to-Description Retrieval for Global
E-Commerce
- Title(参考訳): グローバルEコマースのための言語間低リソース集合記述検索
- Authors: Juntao Li, Chang Liu, Jian Wang, Lidong Bing, Hongsong Li, Xiaozhong
Liu, Dongyan Zhao, Rui Yan
- Abstract要約: 言語間情報検索は、国境を越えたeコマースにおける新しい課題である。
文脈依存型言語間マッピングの強化を図った新しい言語間マッチングネットワーク(CLMN)を提案する。
実験結果から,提案したCLMNは課題に対して印象的な結果をもたらすことが示唆された。
- 参考スコア(独自算出の注目度): 83.72476966339103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the prosperous of cross-border e-commerce, there is an urgent demand for
designing intelligent approaches for assisting e-commerce sellers to offer
local products for consumers from all over the world. In this paper, we explore
a new task of cross-lingual information retrieval, i.e., cross-lingual
set-to-description retrieval in cross-border e-commerce, which involves
matching product attribute sets in the source language with persuasive product
descriptions in the target language. We manually collect a new and high-quality
paired dataset, where each pair contains an unordered product attribute set in
the source language and an informative product description in the target
language. As the dataset construction process is both time-consuming and
costly, the new dataset only comprises of 13.5k pairs, which is a low-resource
setting and can be viewed as a challenging testbed for model development and
evaluation in cross-border e-commerce. To tackle this cross-lingual
set-to-description retrieval task, we propose a novel cross-lingual matching
network (CLMN) with the enhancement of context-dependent cross-lingual mapping
upon the pre-trained monolingual BERT representations. Experimental results
indicate that our proposed CLMN yields impressive results on the challenging
task and the context-dependent cross-lingual mapping on BERT yields noticeable
improvement over the pre-trained multi-lingual BERT model.
- Abstract(参考訳): 国境を越えたeコマースが繁栄する中、世界中の消費者にローカル製品を提供するeコマース販売者を支援するために、インテリジェントなアプローチをデザインする緊急の需要がある。
本稿では,対話型電子商取引における言語間情報検索の新たな課題,すなわち,対象言語における説得的製品記述とソース言語における製品属性集合のマッチングを含む言語間情報検索の課題について検討する。
我々は手動で新しい高品質のペアデータセットを収集し、各ペアはソース言語にセットされた未順序の製品属性と、ターゲット言語にセットされた情報的製品記述を含む。
データセットの構築プロセスは時間と費用がかかるため、新しいデータセットは13.5kペアのみで構成されており、低リソース設定であり、国境を越えたeコマースにおけるモデル開発と評価のための挑戦的なテストベッドと見なすことができる。
この言語間セット・トゥ・記述検索課題に対処するために,事前学習した単言語BERT表現に対する文脈依存の言語間マッピングの強化を伴う,新しい言語間マッチングネットワーク(CLMN)を提案する。
実験結果から,提案したCLMNは,難解な課題に対する印象的な結果を得られ,BERT上での文脈依存の言語間マッピングは,事前学習した多言語BERTモデルよりも顕著な改善をもたらすことが示された。
関連論文リスト
- $\mu$PLAN: Summarizing using a Content Plan as Cross-Lingual Bridge [72.64847925450368]
言語間の要約は、異なる言語で入力文書が与えられた1つの言語で要約を生成することで構成される。
この研究は、中間計画段階を言語横断橋として利用する言語横断要約へのアプローチである$mu$PLANを提示する。
論文 参考訳(メタデータ) (2023-05-23T16:25:21Z) - XTREME-UP: A User-Centric Scarce-Data Benchmark for Under-Represented
Languages [105.54207724678767]
データ不足は、多言語NLPシステムの開発において重要な問題である。
我々はXTREME-UPを提案する。XTREME-UPはゼロショットではなく、希少なデータシナリオに焦点を当てたベンチマークである。
XTREME-UPは、88言語にまたがる言語モデルが、9つのキーとなるユーザー中心技術上で機能する能力を評価する。
論文 参考訳(メタデータ) (2023-05-19T18:00:03Z) - Soft Prompt Decoding for Multilingual Dense Retrieval [30.766917713997355]
本稿では,MLIRタスクへの言語間情報検索のための最先端手法の適用により,準最適性能が得られることを示す。
これは多言語コレクションの不均一性と不均衡性に起因する。
KD-SPDはMLIRの新しいソフトプロンプトデコーディング手法で、異なる言語における文書の表現を同じ埋め込み空間に暗黙的に「翻訳」する。
論文 参考訳(メタデータ) (2023-05-15T21:17:17Z) - Improving Low-resource Reading Comprehension via Cross-lingual
Transposition Rethinking [0.9236074230806579]
Extractive Reading (ERC)は、大規模で高品質なERCトレーニングデータの提供によって、大幅に進歩した。
このような急速な進歩と広範囲の応用にもかかわらず、英語のような高リソース言語以外の言語のデータセットは依然として不足している。
多言語環境において,既存の高品質抽出読解データセットをモデル化し,XLTT(Cross-Lingual Transposition ReThinking)モデルを提案する。
論文 参考訳(メタデータ) (2021-07-11T09:35:16Z) - A Multilingual Modeling Method for Span-Extraction Reading Comprehension [2.4905424368103444]
XLRCと呼ばれる多言語抽出読解手法を提案する。
我々のモデルはCMRC 2018タスクにおいて最先端のベースライン(RoBERTa_Large)よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-31T11:05:30Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - Cross-lingual Information Retrieval with BERT [8.052497255948046]
本稿では、人気のある双方向言語モデルBERTを用いて、英語クエリと外国語文書の関係をモデル化し、学習する。
BERTに基づく深部関係マッチングモデルを導入し,教師の弱い事前学習多言語BERTモデルを微調整して訓練する。
短い英語クエリに対するリトアニア語文書の検索実験の結果、我々のモデルは有効であり、競争ベースラインのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-04-24T23:32:13Z) - A Study of Cross-Lingual Ability and Language-specific Information in
Multilingual BERT [60.9051207862378]
Multilingual BERTは、言語間転送タスクで驚くほどうまく機能します。
データサイズとコンテキストウィンドウサイズは、転送可能性にとって重要な要素です。
多言語BERTの言語間能力を改善するために、計算的に安価だが効果的なアプローチがある。
論文 参考訳(メタデータ) (2020-04-20T11:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。