論文の概要: Efficient and Effective Query Context-Aware Learning-to-Rank Model for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2507.03789v1
- Date: Fri, 04 Jul 2025 19:50:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.87919
- Title: Efficient and Effective Query Context-Aware Learning-to-Rank Model for Sequential Recommendation
- Title(参考訳): シークエンシャルレコメンデーションのための効率的かつ効果的なクエリ・コンテキスト・アウェアラーニング・ラーニング・ランクモデル
- Authors: Andrii Dzhoha, Alisa Mironenko, Vladimir Vlasov, Maarten Versteegh, Marjan Celikik,
- Abstract要約: 本稿では、因果的言語モデリング手法を用いて訓練されたトランスフォーマーにクエリコンテキストを組み込むための様々な戦略を解析する。
そこで本稿では,アイテムシーケンスをアテンションメカニズム内でクエリコンテキストと効果的に融合する手法を提案する。
- 参考スコア(独自算出の注目度): 0.027961972519572442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern sequential recommender systems commonly use transformer-based models for next-item prediction. While these models demonstrate a strong balance between efficiency and quality, integrating interleaving features - such as the query context (e.g., browse category) under which next-item interactions occur - poses challenges. Effectively capturing query context is crucial for refining ranking relevance and enhancing user engagement, as it provides valuable signals about user intent within a session. Unlike an item's features, query context is not temporally aligned with the item sequence, making its incorporation into transformers challenging and error-prone. This paper analyzes different strategies for incorporating query context into transformers trained with a causal language modeling procedure as a case study. We propose a new method that effectively fuses the item sequence with query context within the attention mechanism. Through extensive offline and online experiments on a large-scale online platform and open datasets, we present evidence that our proposed method is an effective approach for integrating query context to improve model ranking quality in terms of relevance and diversity.
- Abstract(参考訳): 現代のシーケンシャルレコメンダシステムは、一般的に、次のイテム予測にトランスフォーマーベースのモデルを使用する。
これらのモデルは効率性と品質のバランスを強く示しますが、クエリコンテキスト(例:ブラウジングカテゴリ)のようなインターリーブ機能を統合することで、次の項目のインタラクションが発生するのです。
クエリコンテキストを効果的にキャプチャすることは、セッション内のユーザ意図に関する貴重な情報を提供するため、ランキングの関連性を洗練し、ユーザエンゲージメントを高めるために不可欠である。
アイテムの特徴とは異なり、クエリコンテキストはアイテムシーケンスと時間的に一致しないため、トランスフォーマーへの組み込みが難しく、エラーが発生しやすい。
本稿では、因果的言語モデリング手法を用いて訓練されたトランスフォーマーにクエリコンテキストを組み込むための様々な戦略をケーススタディとして分析する。
そこで本稿では,アイテムシーケンスをアテンションメカニズム内でクエリコンテキストと効果的に融合する手法を提案する。
大規模なオンラインプラットフォームとオープンデータセット上での大規模なオフラインおよびオンライン実験を通じて,提案手法がクエリコンテキストの統合に有効であることを示す。
関連論文リスト
- The Devil is in the Spurious Correlations: Boosting Moment Retrieval with Dynamic Learning [49.40254251698784]
本稿では,モーメント検索のための動的学習手法を提案する。
まず、クエリーモーメントの動的コンテキストを構築するための新しいビデオ合成手法を提案する。
第2に、背景との過度な関連を緩和するために、テキストと力学の相互作用を組み込むことで、時間的に表現を強化する。
論文 参考訳(メタデータ) (2025-01-13T13:13:06Z) - Pointwise Mutual Information as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
文脈と問合せの間のポイントワイドな相互情報は,言語モデルの性能向上に有効な指標であることを示す。
本稿では,文書と質問のポイントワイドな相互情報を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - Improving Retrieval in Sponsored Search by Leveraging Query Context Signals [6.152499434499752]
本稿では,クエリをリッチなコンテキスト信号で拡張することで,クエリ理解を強化する手法を提案する。
我々は、Web検索のタイトルとスニペットを使って、現実世界の情報にクエリを接地し、GPT-4を使ってクエリの書き直しと説明を生成する。
我々の文脈認識アプローチは文脈自由モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-19T14:28:53Z) - Query-oriented Data Augmentation for Session Search [71.84678750612754]
本稿では,検索ログの強化とモデリングの強化を目的としたクエリ指向データ拡張を提案する。
検索コンテキストの最も重要な部分を変更することで補足的なトレーニングペアを生成する。
我々は、現在のクエリを変更するためのいくつかの戦略を開発し、その結果、様々な難易度で新しいトレーニングデータを得る。
論文 参考訳(メタデータ) (2024-07-04T08:08:33Z) - Semantic Equivalence of e-Commerce Queries [6.232692545488813]
本稿では,クエリの等価性を認識・活用し,検索とビジネスの成果を高めるためのフレームワークを提案する。
提案手法は,検索意図のベクトル表現へのクエリのマッピング,等価あるいは類似の意図を表現した近傍のクエリの特定,ユーザやビジネス目的の最適化という3つの重要な問題に対処する。
論文 参考訳(メタデータ) (2023-08-07T18:40:13Z) - FineDiving: A Fine-grained Dataset for Procedure-aware Action Quality
Assessment [93.09267863425492]
競争力のあるスポーツビデオにおける行動の高レベル意味論と内部時間構造の両方を理解することが、予測を正確かつ解釈可能なものにする鍵である、と我々は主張する。
本研究では,多様なダイビングイベントに対して,アクションプロシージャに関する詳細なアノテーションを付加した,ファインディビングと呼ばれる詳細なデータセットを構築した。
論文 参考訳(メタデータ) (2022-04-07T17:59:32Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - Improving Attention Mechanism with Query-Value Interaction [92.67156911466397]
本稿では,問合せ対応の注目値を学習可能な問合せ-値相互作用関数を提案する。
我々のアプローチは、多くの注意に基づくモデルの性能を一貫して改善することができる。
論文 参考訳(メタデータ) (2020-10-08T05:12:52Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。