論文の概要: Deep Pairwise Learning To Rank For Search Autocomplete
- arxiv url: http://arxiv.org/abs/2108.04976v1
- Date: Wed, 11 Aug 2021 00:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 19:12:21.868233
- Title: Deep Pairwise Learning To Rank For Search Autocomplete
- Title(参考訳): Deep Pairwiseが検索オートコンプリートでランキングを学習
- Authors: Kai Yuan, Da Kuang
- Abstract要約: 本稿では,文脈認識型ニューラルネットワークを用いたペアワイドランキングシステムを提案し,オートコンプリートランキングを改善する。
Lambdaローダと比較して、DeepPLTRはオフライン評価で+3.90%のMeanReciprocalRank(MRR)リフトを示し、AmazonのオンラインA/B実験で+0.06%(p 0.1)のGross Merchandise Value(GMV)リフトを得た。
- 参考スコア(独自算出の注目度): 4.8371021653616975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autocomplete (a.k.a "Query Auto-Completion", "AC") suggests full queries
based on a prefix typed by customer. Autocomplete has been a core feature of
commercial search engine. In this paper, we propose a novel context-aware
neural network based pairwise ranker (DeepPLTR) to improve AC ranking, DeepPLTR
leverages contextual and behavioral features to rank queries by minimizing a
pairwise loss, based on a fully-connected neural network structure. Compared to
LambdaMART ranker, DeepPLTR shows +3.90% MeanReciprocalRank (MRR) lift in
offline evaluation, and yielded +0.06% (p < 0.1) Gross Merchandise Value (GMV)
lift in an Amazon's online A/B experiment.
- Abstract(参考訳): オートコンプリート("Query Auto-Completion"、AC)は、顧客がタイプしたプレフィックスに基づいた完全なクエリを提案する。
Autocompleteは商用検索エンジンの中核的な機能だ。
本稿では,コンテクスト対応ニューラルネットワークを用いたペアワイズランキングシステム(DeepPLTR)を提案する。DeepPLTRは,完全接続型ニューラルネットワーク構造に基づくペアワイズ損失を最小限に抑えて,コンテキスト的特徴と行動的特徴を活用してクエリランク付けを行う。
LambdaMARTのランキングと比較すると、DeepPLTRはオフライン評価で+3.90%のMeanReciprocalRank(MRR)リフトを示し、AmazonのオンラインA/B実験で+0.06%(p < 0.1)Gross Merchandise Value(GMV)リフトを得た。
関連論文リスト
- End-to-End Open Vocabulary Keyword Search With Multilingual Neural
Representations [7.780766187171571]
競合性能を実現するニューラルネットワークによるASRフリーキーワード検索モデルを提案する。
本研究は,多言語事前学習と詳細なモデル解析により拡張する。
実験の結果,提案した多言語学習はモデルの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-08-15T20:33:25Z) - Seasonality Based Reranking of E-commerce Autocomplete Using Natural
Language Queries [15.37457156804212]
クエリオートコンプリート(QAC)はTypeaheadとしても知られ、検索ボックス内のユーザタイププレフィックスとして完全なクエリのリストを提案する。
typeaheadの目標のひとつは、季節的に重要なユーザに対して、関連するクエリを提案することだ。
本稿では,ニューラルネットワークに基づく自然言語処理(NLP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T21:14:25Z) - SpellMapper: A non-autoregressive neural spellchecker for ASR
customization with candidate retrieval based on n-gram mappings [76.87664008338317]
文脈スペル補正モデルは、音声認識を改善するために浅い融合に代わるものである。
ミススペルn-gramマッピングに基づく候補探索のための新しいアルゴリズムを提案する。
Spoken Wikipediaの実験では、ベースラインのASRシステムに比べて21.4%のワードエラー率の改善が見られた。
論文 参考訳(メタデータ) (2023-06-04T10:00:12Z) - Unified Functional Hashing in Automatic Machine Learning [58.77232199682271]
高速に統一された関数型ハッシュを用いることで,大きな効率向上が得られることを示す。
私たちのハッシュは"機能的"であり、表現やコードが異なる場合でも同等の候補を識別します。
ニューラルアーキテクチャ検索やアルゴリズム発見など、複数のAutoMLドメインで劇的な改善がなされている。
論文 参考訳(メタデータ) (2023-02-10T18:50:37Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - Open-Set Automatic Target Recognition [52.27048031302509]
オートマチックターゲット認識(Automatic Target Recognition、ATR)は、異なるセンサーから取得したデータに基づいてターゲットを認識しようとするコンピュータビジョンアルゴリズムのカテゴリである。
既存のATRアルゴリズムは、トレーニングとテストが同じクラス分布を持つ従来のクローズドセット手法向けに開発されている。
ATRアルゴリズムのオープンセット認識機能を実現するためのオープンセット自動ターゲット認識フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T21:28:24Z) - DAAS: Differentiable Architecture and Augmentation Policy Search [107.53318939844422]
この研究は、ニューラルネットワークとデータ拡張のカップリングの可能性を検討し、それらを共同で検索する効果的なアルゴリズムを提案する。
CIFAR-10では97.91%、ImageNetデータセットでは76.6%の精度で97.91%の精度を達成し、検索アルゴリズムの優れた性能を示している。
論文 参考訳(メタデータ) (2021-09-30T17:15:17Z) - APRF-Net: Attentive Pseudo-Relevance Feedback Network for Query
Categorization [12.634704014206294]
クエリ分類のためのレアクエリの表現を強化するために,textbfAttentive textbfPseudo textbfRelevance textbfFeedback textbfNetwork (APRF-Net) という新しいディープニューラルネットワークを提案する。
以上の結果から,APRF-Netはクエリ分類をF1@1$スコアで5.9%改善し,レアクエリでは8.2%向上した。
論文 参考訳(メタデータ) (2021-04-23T02:34:08Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - AutoLR: Layer-wise Pruning and Auto-tuning of Learning Rates in
Fine-tuning of Deep Networks [13.761920032156082]
既存の微調整手法では、すべてのレイヤで単一の学習率を使用する。
本稿では、微調整性能を改善し、ネットワークの複雑さを低減するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-14T14:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。