論文の概要: High Quality Related Search Query Suggestions using Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2108.04452v1
- Date: Tue, 10 Aug 2021 05:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 23:12:17.725467
- Title: High Quality Related Search Query Suggestions using Deep Reinforcement
Learning
- Title(参考訳): 深層強化学習を用いた高品質検索クエリの提案
- Authors: Praveen Kumar Bodigutla
- Abstract要約: The High Quality Related Search Query Suggestions” タスクは,リアルタイムで正確で,多様な,関連性の高い検索クエリを推奨することを目的としている。
私たちは、ユーザが次に入力するクエリを予測するために、Deep Reinforcement Learningモデルをトレーニングします。
報酬信号は、長期セッションベースのユーザフィードバック、構文的関連性、および生成されたクエリの自然性から成り立っている。
- 参考スコア(独自算出の注目度): 0.15229257192293202
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: "High Quality Related Search Query Suggestions" task aims at recommending
search queries which are real, accurate, diverse, relevant and engaging.
Obtaining large amounts of query-quality human annotations is expensive. Prior
work on supervised query suggestion models suffered from selection and exposure
bias, and relied on sparse and noisy immediate user-feedback (e.g., clicks),
leading to low quality suggestions. Reinforcement Learning techniques employed
to reformulate a query using terms from search results, have limited
scalability to large-scale industry applications. To recommend high quality
related search queries, we train a Deep Reinforcement Learning model to predict
the query a user would enter next. The reward signal is composed of long-term
session-based user feedback, syntactic relatedness and estimated naturalness of
generated query. Over the baseline supervised model, our proposed approach
achieves a significant relative improvement in terms of recommendation
diversity (3%), down-stream user-engagement (4.2%) and per-sentence word
repetitions (82%).
- Abstract(参考訳): The High Quality Related Search Query Suggestions” タスクは,リアルタイムで正確で,多様な,関連性の高い検索クエリを推奨する。
大量のクエリ品質のヒューマンアノテーションを得ることは費用がかかる。
教師付きクエリ提案モデルに関する以前の作業は選択バイアスと露出バイアスに苦しめられ、スリムでノイズの多い即時ユーザフィードバック(クリックなど)に依存していたため、品質が低かった。
検索結果からの用語を用いてクエリを再構築するために使用される強化学習技術は、大規模産業アプリケーションに対するスケーラビリティに制限がある。
高品質な検索クエリを推奨するために,ユーザが次に入力するクエリを予測するために,深い強化学習モデルをトレーニングする。
報酬信号は、長期セッションベースユーザフィードバック、構文関連性、生成したクエリの自然性推定によって構成される。
提案手法は,ベースライン教師モデルと比較して,レコメンデーションの多様性(3%),ダウンストリームユーザエンゲージメント(4.2%),センテンス毎の単語反復(82%)において,相対的に大きな改善を達成している。
関連論文リスト
- RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for
Short-form Open-Domain Question Answering [47.94807819416793]
アダプティブ検索拡張生成(ARAG)は、不特定に検索するのではなく、クエリに対する検索の必要性を動的に決定することを目的としている。
この研究は、新しい世界とロングテール知識をカバーする1,271の短い形式の質問を含む、RetrievalQAというベンチマークを提示する。
本稿では,LLMが校正や追加訓練なしに検索の必要性を評価するのに役立つ,シンプルかつ効果的な手法であるTime-Aware Adaptive Retrieval (TA-ARE)を提案する。
論文 参考訳(メタデータ) (2024-02-26T09:59:04Z) - Learning to Retrieve for Job Matching [22.007634436648427]
本稿では、LinkedInの求人・推薦システムを強化するための学習検索技術の適用について論じる。
確認された雇用データを利用して求職者の求職資格を評価するグラフを構築し、学習したリンクを検索に活用する。
従来の逆インデックスに基づく解に加えて、KNNと項マッチングの両方を効率的にサポートできるon-GPUソリューションを開発した。
論文 参考訳(メタデータ) (2024-02-21T00:05:25Z) - A Deep Reinforcement Learning Approach for Interactive Search with
Sentence-level Feedback [12.712416630402119]
対話型検索は、ユーザからのインタラクションフィードバックを取り入れることで、より良いエクスペリエンスを提供することができる。
既存の最先端(SOTA)システムは、相互作用を組み込むために強化学習(RL)モデルを使用している。
しかしそのようなフィードバックには、広範囲なRLアクションスペース探索と大量の注釈付きデータが必要である。
この研究は、新しいディープQラーニング(DQ)アプローチであるDQrankを提案する。
論文 参考訳(メタデータ) (2023-10-03T18:45:21Z) - Beyond Semantics: Learning a Behavior Augmented Relevance Model with
Self-supervised Learning [25.356999988217325]
関連モデリングは、対応するクエリに対して望ましい項目を見つけることを目的としている。
ユーザの履歴行動データから抽出された補助的なクエリ-イテム相互作用は、ユーザの検索意図をさらに明らかにするためのヒントを提供する可能性がある。
本モデルでは, 隣接する視点と対象視点の両方から, 粗粒度および細粒度の意味表現を蒸留するための多レベルコアテンションを構築している。
論文 参考訳(メタデータ) (2023-08-10T06:52:53Z) - Inference-time Re-ranker Relevance Feedback for Neural Information
Retrieval [84.20748790986131]
検索と参照のフレームワークは、まずK(例えば100)候補を検索し、次により強力なクロスエンコーダモデルを使って上位の候補をランク付けする。
リランカは一般的に、レトリバーよりも優れた候補スコアを生成するが、トップKのみの検索に限られる。
本研究では、リランカを活用して、推論時間関連性フィードバックを検索者に提供することにより、検索を改善する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - Improving Sequential Query Recommendation with Immediate User Feedback [9.294562590924242]
本稿では,対話型データ探索設定における次のクエリレコメンデーションのためのアルゴリズムを提案する。
最先端のクエリレコメンデーションアルゴリズムは、シーケンスからシーケンスへの学習アプローチに基づいている。
人気のあるオンライン文献発見サービスからログファイルを用いて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-12T18:19:24Z) - Counterfactual Learning To Rank for Utility-Maximizing Query
Autocompletion [40.31426350180036]
本稿では,ダウンストリーム検索性能に対するクエリ提案を明示的に最適化する手法を提案する。
ここでは、各クエリ提案が生成するダウンストリームアイテムランキングによって表現されるランキングの集合をランク付けする問題として、これを定式化する。
次に,項目ランクの質によってクエリ提案をランク付けする学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-22T21:40:51Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z) - Session-Aware Query Auto-completion using Extreme Multi-label Ranking [61.753713147852125]
本稿では,セッション対応クエリ自動補完の新たな手法を,XMR(Multi Multi-Xtreme Ranking)問題として取り上げる。
アルゴリズムのキーステップにいくつかの修正を提案することにより、この目的のために一般的なXMRアルゴリズムを適応させる。
当社のアプローチは、セッション情報を活用しながら、自動補完システムの厳しいレイテンシ要件を満たします。
論文 参考訳(メタデータ) (2020-12-09T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。