論文の概要: Recommendation Systems with Distribution-Free Reliability Guarantees
- arxiv url: http://arxiv.org/abs/2207.01609v1
- Date: Mon, 4 Jul 2022 17:49:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 15:06:02.430631
- Title: Recommendation Systems with Distribution-Free Reliability Guarantees
- Title(参考訳): ディストリビューションフリーな信頼性保証型レコメンデーションシステム
- Authors: Anastasios N. Angelopoulos, Karl Krauth, Stephen Bates, Yixin Wang,
Michael I. Jordan
- Abstract要約: 我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
- 参考スコア(独自算出の注目度): 83.80644194980042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When building recommendation systems, we seek to output a helpful set of
items to the user. Under the hood, a ranking model predicts which of two
candidate items is better, and we must distill these pairwise comparisons into
the user-facing output. However, a learned ranking model is never perfect, so
taking its predictions at face value gives no guarantee that the user-facing
output is reliable. Building from a pre-trained ranking model, we show how to
return a set of items that is rigorously guaranteed to contain mostly good
items. Our procedure endows any ranking model with rigorous finite-sample
control of the false discovery rate (FDR), regardless of the (unknown) data
distribution. Moreover, our calibration algorithm enables the easy and
principled integration of multiple objectives in recommender systems. As an
example, we show how to optimize for recommendation diversity subject to a
user-specified level of FDR control, circumventing the need to specify ad hoc
weights of a diversity loss against an accuracy loss. Throughout, we focus on
the problem of learning to rank a set of possible recommendations, evaluating
our methods on the Yahoo! Learning to Rank and MSMarco datasets.
- Abstract(参考訳): 推薦システムを構築する際には,ユーザに対して有用なアイテムセットを出力する。
内部では、ランキングモデルにより、2つの候補項目のどちらが良いかを予測し、これらのペア比較をユーザ向きの出力に精算する必要がある。
しかし、学習されたランキングモデルは完璧ではないので、その予測を顔の値に当てはめれば、ユーザ側の出力が信頼できる保証は得られない。
事前訓練されたランキングモデルから構築すると、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
提案手法は,(未知)データ分布にかかわらず,fdr(偽発見率)の厳密な有限サンプル制御を伴う任意のランキングモデルを内包する。
さらに,キャリブレーションアルゴリズムにより,推薦システムにおける複数の目的の容易かつ原則的な統合が可能となる。
一例として、ユーザが指定したFDR制御レベルに応じたレコメンデーションダイバーシティの最適化方法を示し、多様性損失のアドホックウェイトを精度損失に対して指定する必要性を回避する。
全体として、可能なレコメンデーションのセットをランク付けする学習の問題に焦点を合わせ、Yahoo! Learning to RankとMSMarcoデータセットの手法を評価します。
関連論文リスト
- Preference Diffusion for Recommendation [50.8692409346126]
DMベースのレコメンデータに適した最適化対象であるPreferDiffを提案する。
PreferDiffは、BPRをログライクなランキング目標に変換することで、ユーザの好みをよりよく把握する。
これはDMベースのレコメンデーション向けに特別に設計された、パーソナライズされたランキングの損失である。
論文 参考訳(メタデータ) (2024-10-17T01:02:04Z) - Aligning GPTRec with Beyond-Accuracy Goals with Reinforcement Learning [67.71952251641545]
GPTRecはアイテム・バイ・イテムレコメンデーションのためのTop-Kモデルの代替品である。
GPTRecは,従来のグリーディ・リグレード手法よりも精度とセカンダリ・メトリクスのトレードオフが優れていることを示す。
2つのデータセットに対する実験により、GPTRecのNext-K生成アプローチは、古典的なグリージーな再ランク技術よりも精度と二次メトリクスのトレードオフが優れていることが示された。
論文 参考訳(メタデータ) (2024-03-07T19:47:48Z) - Item-based Variational Auto-encoder for Fair Music Recommendation [1.8782288713227568]
EvalRS DataChallengeは、評価の正確性、公平性、多様性を考慮して、より現実的なレコメンデーションシステムを構築することを目的としている。
提案システムは,アイテムベース変分自動エンコーダ(VAE)とベイズパーソナライズされたランキング行列分解(BPRMF)のアンサンブルに基づく。
論文 参考訳(メタデータ) (2022-10-24T06:42:16Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Introducing a Framework and a Decision Protocol to Calibrate Recommender
Systems [0.0]
本稿では,ジャンルの校正バランスを考慮したレコメンデーションリスト作成手法を提案する。
主な主張は、キャリブレーションはより公平なレコメンデーションを生み出すために肯定的に貢献できるということである。
本稿では,1000以上の校正システムの組み合わせを生成するための概念的フレームワークと決定プロトコルを提案する。
論文 参考訳(メタデータ) (2022-04-07T19:30:55Z) - Unbiased Pairwise Learning to Rank in Recommender Systems [4.058828240864671]
アルゴリズムをランク付けする偏見のない学習は、候補をアピールし、既に単一の分類ラベルを持つ多くのアプリケーションに適用されている。
本稿では,この課題に対処するための新しい非バイアス付きLTRアルゴリズムを提案する。
パブリックベンチマークデータセットと内部ライブトラフィックを用いた実験結果から,分類ラベルと連続ラベルのいずれにおいても提案手法の優れた結果が得られた。
論文 参考訳(メタデータ) (2021-11-25T06:04:59Z) - A Differentiable Ranking Metric Using Relaxed Sorting Operation for
Top-K Recommender Systems [1.2617078020344619]
推薦システムは、項目の選好スコアを計算し、スコアに応じて項目をソートし、上位K項目を高いスコアでフィルタリングすることで、パーソナライズされたレコメンデーションを生成する。
このレコメンデーション手順にはソートやランキング項目が不可欠ですが、エンドツーエンドのモデルトレーニングのプロセスにそれらを組み込むのは簡単ではありません。
これにより、既存の学習目標とレコメンデータのランキングメトリクスの矛盾が生じる。
本稿では,この不整合を緩和し,ランキングメトリクスの微分緩和を利用してレコメンデーション性能を向上させるDRMを提案する。
論文 参考訳(メタデータ) (2020-08-30T10:57:33Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - SetRank: A Setwise Bayesian Approach for Collaborative Ranking from
Implicit Feedback [50.13745601531148]
提案手法は,提案システムにおける暗黙的フィードバックの特性に対応するために,協調的ランキング(SeetRank)のためのセッティングワイドベイズ的手法を提案する。
具体的には、SetRankは、新しい設定された選好比較の後方確率を最大化することを目的としている。
また、SetRankの理論解析により、余剰リスクの境界が$sqrtM/N$に比例できることを示す。
論文 参考訳(メタデータ) (2020-02-23T06:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。