論文の概要: Deep Pairwise Learning To Rank For Search Autocomplete
- arxiv url: http://arxiv.org/abs/2108.04976v1
- Date: Wed, 11 Aug 2021 00:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 19:12:21.868233
- Title: Deep Pairwise Learning To Rank For Search Autocomplete
- Title(参考訳): Deep Pairwiseが検索オートコンプリートでランキングを学習
- Authors: Kai Yuan, Da Kuang
- Abstract要約: 本稿では,文脈認識型ニューラルネットワークを用いたペアワイドランキングシステムを提案し,オートコンプリートランキングを改善する。
Lambdaローダと比較して、DeepPLTRはオフライン評価で+3.90%のMeanReciprocalRank(MRR)リフトを示し、AmazonのオンラインA/B実験で+0.06%(p 0.1)のGross Merchandise Value(GMV)リフトを得た。
- 参考スコア(独自算出の注目度): 4.8371021653616975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autocomplete (a.k.a "Query Auto-Completion", "AC") suggests full queries
based on a prefix typed by customer. Autocomplete has been a core feature of
commercial search engine. In this paper, we propose a novel context-aware
neural network based pairwise ranker (DeepPLTR) to improve AC ranking, DeepPLTR
leverages contextual and behavioral features to rank queries by minimizing a
pairwise loss, based on a fully-connected neural network structure. Compared to
LambdaMART ranker, DeepPLTR shows +3.90% MeanReciprocalRank (MRR) lift in
offline evaluation, and yielded +0.06% (p < 0.1) Gross Merchandise Value (GMV)
lift in an Amazon's online A/B experiment.
- Abstract(参考訳): オートコンプリート("Query Auto-Completion"、AC)は、顧客がタイプしたプレフィックスに基づいた完全なクエリを提案する。
Autocompleteは商用検索エンジンの中核的な機能だ。
本稿では,コンテクスト対応ニューラルネットワークを用いたペアワイズランキングシステム(DeepPLTR)を提案する。DeepPLTRは,完全接続型ニューラルネットワーク構造に基づくペアワイズ損失を最小限に抑えて,コンテキスト的特徴と行動的特徴を活用してクエリランク付けを行う。
LambdaMARTのランキングと比較すると、DeepPLTRはオフライン評価で+3.90%のMeanReciprocalRank(MRR)リフトを示し、AmazonのオンラインA/B実験で+0.06%(p < 0.1)Gross Merchandise Value(GMV)リフトを得た。
関連論文リスト
- LINKAGE: Listwise Ranking among Varied-Quality References for Non-Factoid QA Evaluation via LLMs [61.57691505683534]
非F (Non-Factoid) Question Answering (QA) は多種多様な潜在的回答と客観的基準により評価が困難である。
大規模言語モデル (LLM) は、様々なNLPタスクにおいて魅力的な性能を持つため、NFQAの評価に利用されてきた。
提案手法は,LLMを用いて基準回答のランク付けを行う新しい評価手法であるNFQAの評価手法を提案する。
論文 参考訳(メタデータ) (2024-09-23T06:42:21Z) - Relevance Filtering for Embedding-based Retrieval [46.851594313019895]
埋め込み型検索では、ANN(Approximate Nearest Neighbor)検索により、大規模データセットから類似したアイテムを効率的に検索することができる。
本稿では,この課題に対処するために,埋め込み型検索のための新しい関連フィルタリングコンポーネント("Cosine Adapter" と呼ぶ)を提案する。
少ないリコールの損失を犠牲にして、回収したセットの精度を大幅に向上することが可能です。
論文 参考訳(メタデータ) (2024-08-09T06:21:20Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Sequential Decision-Making for Inline Text Autocomplete [14.83046358936405]
テキスト入力システムにおけるインラインオートコンプリート提案の改善問題について検討する。
我々は、強化学習を用いて、ターゲットユーザとの繰り返しインタラクションを通じて提案ポリシーを学習する。
論文 参考訳(メタデータ) (2024-03-21T22:33:16Z) - Seasonality Based Reranking of E-commerce Autocomplete Using Natural
Language Queries [15.37457156804212]
クエリオートコンプリート(QAC)はTypeaheadとしても知られ、検索ボックス内のユーザタイププレフィックスとして完全なクエリのリストを提案する。
typeaheadの目標のひとつは、季節的に重要なユーザに対して、関連するクエリを提案することだ。
本稿では,ニューラルネットワークに基づく自然言語処理(NLP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T21:14:25Z) - Unified Functional Hashing in Automatic Machine Learning [58.77232199682271]
高速に統一された関数型ハッシュを用いることで,大きな効率向上が得られることを示す。
私たちのハッシュは"機能的"であり、表現やコードが異なる場合でも同等の候補を識別します。
ニューラルアーキテクチャ検索やアルゴリズム発見など、複数のAutoMLドメインで劇的な改善がなされている。
論文 参考訳(メタデータ) (2023-02-10T18:50:37Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - Open-Set Automatic Target Recognition [52.27048031302509]
オートマチックターゲット認識(Automatic Target Recognition、ATR)は、異なるセンサーから取得したデータに基づいてターゲットを認識しようとするコンピュータビジョンアルゴリズムのカテゴリである。
既存のATRアルゴリズムは、トレーニングとテストが同じクラス分布を持つ従来のクローズドセット手法向けに開発されている。
ATRアルゴリズムのオープンセット認識機能を実現するためのオープンセット自動ターゲット認識フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T21:28:24Z) - DAAS: Differentiable Architecture and Augmentation Policy Search [107.53318939844422]
この研究は、ニューラルネットワークとデータ拡張のカップリングの可能性を検討し、それらを共同で検索する効果的なアルゴリズムを提案する。
CIFAR-10では97.91%、ImageNetデータセットでは76.6%の精度で97.91%の精度を達成し、検索アルゴリズムの優れた性能を示している。
論文 参考訳(メタデータ) (2021-09-30T17:15:17Z) - APRF-Net: Attentive Pseudo-Relevance Feedback Network for Query
Categorization [12.634704014206294]
クエリ分類のためのレアクエリの表現を強化するために,textbfAttentive textbfPseudo textbfRelevance textbfFeedback textbfNetwork (APRF-Net) という新しいディープニューラルネットワークを提案する。
以上の結果から,APRF-Netはクエリ分類をF1@1$スコアで5.9%改善し,レアクエリでは8.2%向上した。
論文 参考訳(メタデータ) (2021-04-23T02:34:08Z) - AutoLR: Layer-wise Pruning and Auto-tuning of Learning Rates in
Fine-tuning of Deep Networks [13.761920032156082]
既存の微調整手法では、すべてのレイヤで単一の学習率を使用する。
本稿では、微調整性能を改善し、ネットワークの複雑さを低減するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-14T14:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。