論文の概要: TPRM: A Topic-based Personalized Ranking Model for Web Search
- arxiv url: http://arxiv.org/abs/2108.06014v1
- Date: Fri, 13 Aug 2021 01:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 13:13:43.230511
- Title: TPRM: A Topic-based Personalized Ranking Model for Web Search
- Title(参考訳): TPRM: Web検索のためのトピックベースのパーソナライズランキングモデル
- Authors: Minghui Huang, Wei Peng and Dong Wang
- Abstract要約: 本稿では,ユーザのトピックプロファイルと事前学習した文脈付き用語表現を統合したトピックベースパーソナライズされたランキングモデル(TPRM)を提案する。
実世界のデータセットの実験では、TPRMは最先端のアドホックランキングモデルとパーソナライズされたランキングモデルを大きく上回っている。
- 参考スコア(独自算出の注目度): 9.032465976745305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ranking models have achieved promising results, but it remains challenging to
design personalized ranking systems to leverage user profiles and semantic
representations between queries and documents. In this paper, we propose a
topic-based personalized ranking model (TPRM) that integrates user topical
profile with pretrained contextualized term representations to tailor the
general document ranking list. Experiments on the real-world dataset
demonstrate that TPRM outperforms state-of-the-art ad-hoc ranking models and
personalized ranking models significantly.
- Abstract(参考訳): ランキングモデルは有望な結果を得たが、ユーザプロファイルとクエリとドキュメント間のセマンティック表現を活用するためにパーソナライズされたランキングシステムを設計することは依然として困難である。
本稿では,ユーザのトピックプロファイルと事前学習された文脈化用語表現を統合し,一般文書ランキングを調整したトピックベースパーソナライズランキングモデル(tprm)を提案する。
実世界のデータセットの実験では、TPRMは最先端のアドホックランキングモデルとパーソナライズされたランキングモデルを大きく上回っている。
関連論文リスト
- Enhancing Q&A Text Retrieval with Ranking Models: Benchmarking, fine-tuning and deploying Rerankers for RAG [1.8448587047759064]
本稿では、様々な公開ランキングモデルをベンチマークし、ランキング精度への影響について検討する。
本稿では,質問応答タスクのテキスト検索に焦点をあてる。これはRetrieval-Augmented Generationシステムにおける一般的なユースケースである。
我々は,現在最先端のランキングモデルであるNV-RerankQA-Mistral-4B-v3を導入する。
論文 参考訳(メタデータ) (2024-09-12T01:51:06Z) - Statistical Models of Top-$k$ Partial Orders [7.121002367542985]
我々は、トップ$k$部分順序とリスト長$k$に対する分布を共同でモデル化するためのアプローチを導入し、分類する。
サンフランシスコの学校選別とサンフランシスコの選別選別選別選別選別選別選別選別選別によるデータを用いて、モデルが観測されたデータをどのように予測するかを評価する。
論文 参考訳(メタデータ) (2024-06-22T17:04:24Z) - SCAR: Efficient Instruction-Tuning for Large Language Models via Style Consistency-Aware Response Ranking [56.93151679231602]
本研究は、応答における2つの重要なスタイル的要素、すなわち言語形式と意味的前提を同定する。
これに触発されて、スタイル一貫性対応対応ランキング(SCAR)を導入する。
SCARは、そのレスポンススタイリスティックな一貫性に基づいて、トレーニングセット内の命令-レスポンスペアを優先順位付けする。
論文 参考訳(メタデータ) (2024-06-16T10:10:37Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Dirichlet-based Uncertainty Quantification for Personalized Federated
Learning with Improved Posterior Networks [9.54563359677778]
本稿では,グローバルおよびパーソナライズされたモデルの中からモデルを選択可能なフェデレーション学習への新たなアプローチを提案する。
これは、局所的およびグローバルな分布内および分布外データを検出するのに役立つ予測不確実性の慎重なモデリングによって達成される。
一般的な実世界の画像データセットに対する総合的な実験的評価は、アウト・オブ・ディストリビューション・データの存在下でのモデルの優れた性能を示している。
論文 参考訳(メタデータ) (2023-12-18T14:30:05Z) - A Unified Statistical Learning Model for Rankings and Scores with
Application to Grant Panel Review [1.240096657086732]
ランク付けとスコアは、審査員がオブジェクトのコレクションにおける好みや品質の知覚を表現するために使用する2つの一般的なデータタイプである。
各タイプのデータを個別に研究するためのモデルが多数存在するが、両タイプのデータを同時に取得する統一統計モデルは存在しない。
このギャップを埋めるために,Mallows-Binomialモデルを提案し,BinomialスコアモデルとMallowsの$phi$ランキングモデルを組み合わせた。
論文 参考訳(メタデータ) (2022-01-07T16:56:52Z) - Modeling Relevance Ranking under the Pre-training and Fine-tuning
Paradigm [44.96049217770624]
本稿では,ユーザのビューとシステムビューの両方を考慮した,Pre-Rankという新しいランキングフレームワークを提案する。
ユーザの関連性のビューをモデル化するために、Pre-Rankは、大規模なユーザアクティビティデータに基づいて、初期クエリドキュメント表現を事前トレーニングする。
システムの関連性に関する見解をモデル化するために、Pre-Rankはエキスパートラベルの関連データに基づいてモデルをさらに微調整する。
論文 参考訳(メタデータ) (2021-08-12T10:37:12Z) - Incorporating Vision Bias into Click Models for Image-oriented Search
Engine [51.192784793764176]
本論文では,画像指向検索エンジンに視覚バイアスが存在することを,位置以外の検査確率に影響する重要な要因と仮定する。
候補文書から抽出した視覚特徴から視覚バイアスを予測するために回帰型emアルゴリズムを用いた。
論文 参考訳(メタデータ) (2021-01-07T10:01:31Z) - Overview of the TREC 2019 Fair Ranking Track [65.15263872493799]
TREC Fair Ranking トラックの目標は、異なるコンテンツプロバイダに対する公正性の観点から、検索システムを評価するベンチマークを開発することであった。
本稿では,タスク定義やデータ記述,アノテーションプロセスなどを含むトラックの概要について述べる。
論文 参考訳(メタデータ) (2020-03-25T21:34:58Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。