論文の概要: A Multi-Granularity Matching Attention Network for Query Intent
Classification in E-commerce Retrieval
- arxiv url: http://arxiv.org/abs/2303.15870v1
- Date: Tue, 28 Mar 2023 10:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 15:37:30.851406
- Title: A Multi-Granularity Matching Attention Network for Query Intent
Classification in E-commerce Retrieval
- Title(参考訳): E-Commerce Retrievalにおけるクエリインテント分類のためのマルチグラニュリティマッチング注意ネットワーク
- Authors: Chunyuan Yuan, Yiming Qiu, Mingming Li, Haiqing Hu, Songlin Wang,
Sulong Xu
- Abstract要約: 本稿では,クエリインテント分類のためのMMAN(Multi-granularity Matching Attention Network)を提案する。
MMANには、セルフマッチングモジュール、シャルレベルマッチングモジュール、セマンティックレベルマッチングモジュールの3つのモジュールが含まれている。
我々は大規模なオフラインおよびオンラインA/B実験を行い、MMANが強いベースラインを著しく上回ることを示す。
- 参考スコア(独自算出の注目度): 9.034096715927731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query intent classification, which aims at assisting customers to find
desired products, has become an essential component of the e-commerce search.
Existing query intent classification models either design more exquisite models
to enhance the representation learning of queries or explore label-graph and
multi-task to facilitate models to learn external information. However, these
models cannot capture multi-granularity matching features from queries and
categories, which makes them hard to mitigate the gap in the expression between
informal queries and categories.
This paper proposes a Multi-granularity Matching Attention Network (MMAN),
which contains three modules: a self-matching module, a char-level matching
module, and a semantic-level matching module to comprehensively extract
features from the query and a query-category interaction matrix. In this way,
the model can eliminate the difference in expression between queries and
categories for query intent classification. We conduct extensive offline and
online A/B experiments, and the results show that the MMAN significantly
outperforms the strong baselines, which shows the superiority and effectiveness
of MMAN. MMAN has been deployed in production and brings great commercial value
for our company.
- Abstract(参考訳): 顧客が希望する製品を見つけるのを支援することを目的としたクエリインテント分類は、eコマース検索の重要なコンポーネントとなっている。
既存のクエリインテント分類モデルは、クエリの表現学習を強化するためにより優れたモデルを設計するか、モデルが外部情報を学ぶのを容易にするためにラベルグラフとマルチタスクを探索する。
しかし、これらのモデルはクエリやカテゴリから複数の粒度マッチング機能をキャプチャできないため、非公式なクエリとカテゴリ間の表現のギャップを緩和することは困難である。
本稿では,MMAN(Multi-granularity Matching Attention Network)を提案する。MMAN(Multi-granularity Matching Attention Network)は,クエリから特徴を包括的に抽出する自己マッチングモジュール,シャルレベルマッチングモジュール,セマンティックレベルマッチングモジュールの3つのモジュールを含む。
このようにして、このモデルはクエリとクエリ意図分類のカテゴリ間の表現の違いを取り除くことができる。
大規模なオフラインおよびオンラインA/B実験を行い、MMANがMMANの優位性と有効性を示す強力なベースラインを著しく上回ることを示す。
MMANは本番環境にデプロイされ、当社にとって大きな商業的価値をもたらしています。
関連論文リスト
- Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚的単語の概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - Ada-Retrieval: An Adaptive Multi-Round Retrieval Paradigm for Sequential
Recommendations [50.03560306423678]
本稿では,レコメンダシステムのための適応型マルチラウンド検索パラダイムであるAda-Retrievalを提案する。
Ada-Retrievalは、ユーザー表現を反復的に洗練し、全項目領域の潜在的な候補をよりよく捉えます。
論文 参考訳(メタデータ) (2024-01-12T15:26:40Z) - Beyond Semantics: Learning a Behavior Augmented Relevance Model with
Self-supervised Learning [25.356999988217325]
関連モデリングは、対応するクエリに対して望ましい項目を見つけることを目的としている。
ユーザの履歴行動データから抽出された補助的なクエリ-イテム相互作用は、ユーザの検索意図をさらに明らかにするためのヒントを提供する可能性がある。
本モデルでは, 隣接する視点と対象視点の両方から, 粗粒度および細粒度の意味表現を蒸留するための多レベルコアテンションを構築している。
論文 参考訳(メタデータ) (2023-08-10T06:52:53Z) - Dual-Gated Fusion with Prefix-Tuning for Multi-Modal Relation Extraction [13.454953507205278]
マルチモーダル関係抽出は、視覚的手がかりを含むテキスト中の2つの実体間の関係を特定することを目的としている。
本稿では,テキスト,エンティティペア,画像/オブジェクトのより深い相関関係をよりよく捉えるための新しいMMREフレームワークを提案する。
本手法は, 少数の状況においても, 強力な競合相手と比較して優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-06-19T15:31:34Z) - Named Entity and Relation Extraction with Multi-Modal Retrieval [51.660650522630526]
マルチモーダルな名前付きエンティティ認識(NER)と関係抽出(RE)は、関連画像情報を活用してNERとREの性能を向上させることを目的としている。
新たなマルチモーダル検索フレームワーク(MoRe)を提案する。
MoReはテキスト検索モジュールと画像ベースの検索モジュールを含み、入力されたテキストと画像の関連知識をそれぞれ知識コーパスで検索する。
論文 参考訳(メタデータ) (2022-12-03T13:11:32Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Extending CLIP for Category-to-image Retrieval in E-commerce [36.386210802938656]
Eコマースは、実際はほとんど活用されていないリッチなマルチモーダルデータを提供する。
実際には、テキストと与えられたカテゴリの視覚的表現の間には、しばしばミスマッチがある。
電子商取引におけるカテゴリ・ツー・イメージ検索の課題を紹介し,その課題のモデルであるCLIP-ITAを提案する。
論文 参考訳(メタデータ) (2021-12-21T15:33:23Z) - APRF-Net: Attentive Pseudo-Relevance Feedback Network for Query
Categorization [12.634704014206294]
クエリ分類のためのレアクエリの表現を強化するために,textbfAttentive textbfPseudo textbfRelevance textbfFeedback textbfNetwork (APRF-Net) という新しいディープニューラルネットワークを提案する。
以上の結果から,APRF-Netはクエリ分類をF1@1$スコアで5.9%改善し,レアクエリでは8.2%向上した。
論文 参考訳(メタデータ) (2021-04-23T02:34:08Z) - MLR: A Two-stage Conversational Query Rewriting Model with Multi-task
Learning [16.88648782206587]
本稿では,シーケンスラベリングとクエリリライトのマルチタスクモデルであるMLRを提案する。
MLRは、マルチターンの会話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝達する。
モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,その上で実験を行う。
論文 参考訳(メタデータ) (2020-04-13T08:04:49Z) - Query Focused Multi-Document Summarization with Distant Supervision [88.39032981994535]
既存の作業は、クエリとテキストセグメント間の関連性を推定する検索スタイルの手法に大きく依存している。
本稿では,クエリに関連するセグメントを推定するための個別モジュールを導入した粗大なモデリングフレームワークを提案する。
我々のフレームワークは、標準QFSベンチマークにおいて、強力な比較システムよりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-04-06T22:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。