論文の概要: Efficient Neural Query Auto Completion
- arxiv url: http://arxiv.org/abs/2008.02879v1
- Date: Thu, 6 Aug 2020 21:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:12:13.210573
- Title: Efficient Neural Query Auto Completion
- Title(参考訳): 効率的なニューラルクエリオートコンプリート
- Authors: Sida Wang, Weiwei Guo, Huiji Gao, Bo Long
- Abstract要約: クエリオートコンプリートシステムでは,3つの大きな課題が報告されている。
従来のQACシステムは、検索ログのクエリ候補頻度などの手作り機能に依存している。
本稿では,これらの課題を克服するために,効果的なコンテキストモデリングを用いた効率的なニューラルネットワークQACシステムを提案する。
- 参考スコア(独自算出の注目度): 17.58784759652327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query Auto Completion (QAC), as the starting point of information retrieval
tasks, is critical to user experience. Generally it has two steps: generating
completed query candidates according to query prefixes, and ranking them based
on extracted features. Three major challenges are observed for a query auto
completion system: (1) QAC has a strict online latency requirement. For each
keystroke, results must be returned within tens of milliseconds, which poses a
significant challenge in designing sophisticated language models for it. (2)
For unseen queries, generated candidates are of poor quality as contextual
information is not fully utilized. (3) Traditional QAC systems heavily rely on
handcrafted features such as the query candidate frequency in search logs,
lacking sufficient semantic understanding of the candidate.
In this paper, we propose an efficient neural QAC system with effective
context modeling to overcome these challenges. On the candidate generation
side, this system uses as much information as possible in unseen prefixes to
generate relevant candidates, increasing the recall by a large margin. On the
candidate ranking side, an unnormalized language model is proposed, which
effectively captures deep semantics of queries. This approach presents better
ranking performance over state-of-the-art neural ranking methods and reduces
$\sim$95\% latency compared to neural language modeling methods. The empirical
results on public datasets show that our model achieves a good balance between
accuracy and efficiency. This system is served in LinkedIn job search with
significant product impact observed.
- Abstract(参考訳): 情報検索タスクの出発点としてのクエリ自動補完(qac)はユーザエクスペリエンスにとって重要である。
一般的には、クエリプレフィックスに従って完成したクエリ候補を生成し、抽出された特徴に基づいてランク付けする2つのステップがある。
クエリの自動補完システムには,(1)qacが厳格なオンラインレイテンシ要件である,という3つの大きな課題がある。
キーストローク毎に結果を数ミリ秒以内に返さなければならないため、洗練された言語モデルを設計する上で大きな課題となる。
2) 未知クエリの場合, 生成候補は文脈情報が十分に活用されていないため, 品質が劣る。
3) 従来のqacシステムは,検索ログのクエリ候補頻度などの手作り機能に大きく依存しており,候補の意味的理解が不十分である。
本稿では,これらの課題を克服するための効果的なコンテキストモデリングを用いた効率的なニューラルネットワークQACシステムを提案する。
候補生成側では、未確認の接頭辞でできるだけ多くの情報を用いて関連する候補を生成し、リコールを大きなマージンで増加させる。
候補ランキング側では、クエリの深いセマンティクスを効果的にキャプチャする非正規化言語モデルが提案されている。
このアプローチは、最先端のニューラルネットワークランキング手法よりも優れたランク付け性能を示し、ニューラルネットワークモデリング手法と比較して、$\sim$95\%のレイテンシを低減する。
公開データセットの実証結果から,本モデルは精度と効率のバランスが良好であることが判明した。
このシステムはlinkedinのジョブ検索で提供され、大きな製品への影響が観察される。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - AmazonQAC: A Large-Scale, Naturalistic Query Autocomplete Dataset [14.544120039123934]
395万のサンプルからなるAmazon Searchログをソースとした,新たなQACデータセットであるAmazonQACを紹介する。
データセットには、最終検索語につながるユーザタイププレフィックスの実際のシーケンスと、セッションIDとタイムスタンプが含まれている。
修正木,意味検索,Large Language Models (LLMs) を微調整なしで評価する。
論文 参考訳(メタデータ) (2024-10-22T21:11:34Z) - Large Language Models for Power Scheduling: A User-Centric Approach [6.335540414370735]
本稿では、任意のユーザの音声要求(VRQ)をリソース割り当てベクトルに変換することで、リソーススケジューリング問題に対する新しいアーキテクチャを提案する。
具体的には、要求を最適化問題(OP)に変換するためのLLM意図認識エージェント、LLM OPパラメータ識別エージェント、OP解決エージェントを設計する。
論文 参考訳(メタデータ) (2024-06-29T15:47:28Z) - ACE: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
我々は、エンドツーエンドのクロスモーダル検索のための先駆的なジェネリッククロスモーダル rEtrieval framework (ACE) を提案する。
ACEは、クロスモーダル検索における最先端のパフォーマンスを達成し、Recall@1の強いベースラインを平均15.27%上回る。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - Improving Text Matching in E-Commerce Search with A Rationalizable,
Intervenable and Fast Entity-Based Relevance Model [78.80174696043021]
エンティティベース関連モデル(EBRM)と呼ばれる新しいモデルを提案する。
この分解により、高精度にクロスエンコーダQE関連モジュールを使用できる。
また、ユーザログから自動生成されたQEデータによるQEモジュールの事前トレーニングにより、全体的なパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-07-01T15:44:53Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - On the Importance of Building High-quality Training Datasets for Neural
Code Search [15.557818317497397]
本稿では,ルールベース構文フィルタとモデルベースセマンティックフィルタという,次の2つのフィルタからなるデータクリーニングフレームワークを提案する。
2つの広く使われているコード検索モデルと3つの手動アノテーション付きコード検索ベンチマークにおけるフレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-14T12:02:41Z) - Challenges in Procedural Multimodal Machine Comprehension:A Novel Way To
Benchmark [14.50261153230204]
M3C(Multimodal Machine Reading)に注目し、与えられた文節(または文脈)に基づいてモデルが質問に答えることを期待する。
大規模深層モデルの問合せ生成過程と暗記能力から生じる3つの臨界バイアスを同定する。
3つの制御ノブを通してこれらのバイアスに対処するための体系的枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-22T16:33:57Z) - Session-Aware Query Auto-completion using Extreme Multi-label Ranking [61.753713147852125]
本稿では,セッション対応クエリ自動補完の新たな手法を,XMR(Multi Multi-Xtreme Ranking)問題として取り上げる。
アルゴリズムのキーステップにいくつかの修正を提案することにより、この目的のために一般的なXMRアルゴリズムを適応させる。
当社のアプローチは、セッション情報を活用しながら、自動補完システムの厳しいレイテンシ要件を満たします。
論文 参考訳(メタデータ) (2020-12-09T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。