論文の概要: High Quality Related Search Query Suggestions using Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2108.04452v1
- Date: Tue, 10 Aug 2021 05:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 23:12:17.725467
- Title: High Quality Related Search Query Suggestions using Deep Reinforcement
Learning
- Title(参考訳): 深層強化学習を用いた高品質検索クエリの提案
- Authors: Praveen Kumar Bodigutla
- Abstract要約: The High Quality Related Search Query Suggestions” タスクは,リアルタイムで正確で,多様な,関連性の高い検索クエリを推奨することを目的としている。
私たちは、ユーザが次に入力するクエリを予測するために、Deep Reinforcement Learningモデルをトレーニングします。
報酬信号は、長期セッションベースのユーザフィードバック、構文的関連性、および生成されたクエリの自然性から成り立っている。
- 参考スコア(独自算出の注目度): 0.15229257192293202
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: "High Quality Related Search Query Suggestions" task aims at recommending
search queries which are real, accurate, diverse, relevant and engaging.
Obtaining large amounts of query-quality human annotations is expensive. Prior
work on supervised query suggestion models suffered from selection and exposure
bias, and relied on sparse and noisy immediate user-feedback (e.g., clicks),
leading to low quality suggestions. Reinforcement Learning techniques employed
to reformulate a query using terms from search results, have limited
scalability to large-scale industry applications. To recommend high quality
related search queries, we train a Deep Reinforcement Learning model to predict
the query a user would enter next. The reward signal is composed of long-term
session-based user feedback, syntactic relatedness and estimated naturalness of
generated query. Over the baseline supervised model, our proposed approach
achieves a significant relative improvement in terms of recommendation
diversity (3%), down-stream user-engagement (4.2%) and per-sentence word
repetitions (82%).
- Abstract(参考訳): The High Quality Related Search Query Suggestions” タスクは,リアルタイムで正確で,多様な,関連性の高い検索クエリを推奨する。
大量のクエリ品質のヒューマンアノテーションを得ることは費用がかかる。
教師付きクエリ提案モデルに関する以前の作業は選択バイアスと露出バイアスに苦しめられ、スリムでノイズの多い即時ユーザフィードバック(クリックなど)に依存していたため、品質が低かった。
検索結果からの用語を用いてクエリを再構築するために使用される強化学習技術は、大規模産業アプリケーションに対するスケーラビリティに制限がある。
高品質な検索クエリを推奨するために,ユーザが次に入力するクエリを予測するために,深い強化学習モデルをトレーニングする。
報酬信号は、長期セッションベースユーザフィードバック、構文関連性、生成したクエリの自然性推定によって構成される。
提案手法は,ベースライン教師モデルと比較して,レコメンデーションの多様性(3%),ダウンストリームユーザエンゲージメント(4.2%),センテンス毎の単語反復(82%)において,相対的に大きな改善を達成している。
関連論文リスト
- Hierarchical Reinforcement Learning for Temporal Abstraction of Listwise Recommendation [51.06031200728449]
我々はmccHRLと呼ばれる新しいフレームワークを提案し、リストワイドレコメンデーションにおける時間的抽象化のレベルを異なるものにする。
階層的な枠組みの中では、ハイレベルエージェントがユーザ知覚の進化を研究し、低レベルエージェントがアイテム選択ポリシーを作成している。
その結果,本手法による性能改善は,いくつかのよく知られたベースラインと比較して有意な結果が得られた。
論文 参考訳(メタデータ) (2024-09-11T17:01:06Z) - Multimodal Reranking for Knowledge-Intensive Visual Question Answering [77.24401833951096]
回答生成のための知識候補のランク付け品質を向上させるためのマルチモーダル・リランカを提案する。
OK-VQAとA-OKVQAの実験は、遠隔監視からのマルチモーダルリランカーが一貫した改善をもたらすことを示している。
論文 参考訳(メタデータ) (2024-07-17T02:58:52Z) - CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - Learning to Retrieve for Job Matching [22.007634436648427]
本稿では、LinkedInの求人・推薦システムを強化するための学習検索技術の適用について論じる。
確認された雇用データを利用して求職者の求職資格を評価するグラフを構築し、学習したリンクを検索に活用する。
従来の逆インデックスに基づく解に加えて、KNNと項マッチングの両方を効率的にサポートできるon-GPUソリューションを開発した。
論文 参考訳(メタデータ) (2024-02-21T00:05:25Z) - A Deep Reinforcement Learning Approach for Interactive Search with
Sentence-level Feedback [12.712416630402119]
対話型検索は、ユーザからのインタラクションフィードバックを取り入れることで、より良いエクスペリエンスを提供することができる。
既存の最先端(SOTA)システムは、相互作用を組み込むために強化学習(RL)モデルを使用している。
しかしそのようなフィードバックには、広範囲なRLアクションスペース探索と大量の注釈付きデータが必要である。
この研究は、新しいディープQラーニング(DQ)アプローチであるDQrankを提案する。
論文 参考訳(メタデータ) (2023-10-03T18:45:21Z) - Beyond Semantics: Learning a Behavior Augmented Relevance Model with
Self-supervised Learning [25.356999988217325]
関連モデリングは、対応するクエリに対して望ましい項目を見つけることを目的としている。
ユーザの履歴行動データから抽出された補助的なクエリ-イテム相互作用は、ユーザの検索意図をさらに明らかにするためのヒントを提供する可能性がある。
本モデルでは, 隣接する視点と対象視点の両方から, 粗粒度および細粒度の意味表現を蒸留するための多レベルコアテンションを構築している。
論文 参考訳(メタデータ) (2023-08-10T06:52:53Z) - Improving Sequential Query Recommendation with Immediate User Feedback [6.925738064847176]
本稿では,対話型データ探索設定における次のクエリレコメンデーションのためのアルゴリズムを提案する。
人気のあるオンライン文献発見サービスからログファイルを用いて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-12T18:19:24Z) - Counterfactual Learning To Rank for Utility-Maximizing Query
Autocompletion [40.31426350180036]
本稿では,ダウンストリーム検索性能に対するクエリ提案を明示的に最適化する手法を提案する。
ここでは、各クエリ提案が生成するダウンストリームアイテムランキングによって表現されるランキングの集合をランク付けする問題として、これを定式化する。
次に,項目ランクの質によってクエリ提案をランク付けする学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-22T21:40:51Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z) - Session-Aware Query Auto-completion using Extreme Multi-label Ranking [61.753713147852125]
本稿では,セッション対応クエリ自動補完の新たな手法を,XMR(Multi Multi-Xtreme Ranking)問題として取り上げる。
アルゴリズムのキーステップにいくつかの修正を提案することにより、この目的のために一般的なXMRアルゴリズムを適応させる。
当社のアプローチは、セッション情報を活用しながら、自動補完システムの厳しいレイテンシ要件を満たします。
論文 参考訳(メタデータ) (2020-12-09T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。