論文の概要: Understanding the Effects of Adversarial Personalized Ranking
Optimization Method on Recommendation Quality
- arxiv url: http://arxiv.org/abs/2107.13876v1
- Date: Thu, 29 Jul 2021 10:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 18:14:35.865258
- Title: Understanding the Effects of Adversarial Personalized Ranking
Optimization Method on Recommendation Quality
- Title(参考訳): 対人個人格付け最適化法が推薦品質に及ぼす影響の理解
- Authors: Vito Walter Anelli, Yashar Deldjoo, Tommaso Di Noia, Felice Antonio
Merra
- Abstract要約: ベイズパーソナライズランキング(BPR)とAPR最適化フレームワークの学習特性をモデル化する。
APRがBPRよりも人気バイアスを増大させるのは、ショートヘッドアイテムからの肯定的な更新が不均衡に多いためである。
- 参考スコア(独自算出の注目度): 6.197934754799158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems (RSs) employ user-item feedback, e.g., ratings, to match
customers to personalized lists of products. Approaches to top-k recommendation
mainly rely on Learning-To-Rank algorithms and, among them, the most widely
adopted is Bayesian Personalized Ranking (BPR), which bases on a pair-wise
optimization approach. Recently, BPR has been found vulnerable against
adversarial perturbations of its model parameters. Adversarial Personalized
Ranking (APR) mitigates this issue by robustifying BPR via an adversarial
training procedure. The empirical improvements of APR's accuracy performance on
BPR have led to its wide use in several recommender models. However, a key
overlooked aspect has been the beyond-accuracy performance of APR, i.e.,
novelty, coverage, and amplification of popularity bias, considering that
recent results suggest that BPR, the building block of APR, is sensitive to the
intensification of biases and reduction of recommendation novelty. In this
work, we model the learning characteristics of the BPR and APR optimization
frameworks to give mathematical evidence that, when the feedback data have a
tailed distribution, APR amplifies the popularity bias more than BPR due to an
unbalanced number of received positive updates from short-head items. Using
matrix factorization (MF), we empirically validate the theoretical results by
performing preliminary experiments on two public datasets to compare BPR-MF and
APR-MF performance on accuracy and beyond-accuracy metrics. The experimental
results consistently show the degradation of novelty and coverage measures and
a worrying amplification of bias.
- Abstract(参考訳): Recommender System (RS) はユーザーからのフィードバック(例えばレーティングなど)を使って顧客と製品のパーソナライズされたリストをマッチングする。
トップkレコメンデーションへのアプローチは主にLearning-to-Rankアルゴリズムに依存しており、その中で最も広く採用されているのはBayesian Personalized Ranking(BPR)である。
近年、BPRはモデルパラメータの逆転摂動に対して脆弱であることが判明した。
対人個人格付け(Adversarial Personalized Ranking, APR)は、対人訓練によってBPRを堅牢化することでこの問題を緩和する。
BPRにおけるAPRの精度性能の実証的な改善により、いくつかの推奨モデルで広く利用されている。
しかし、APRのビルディングブロックであるBPRがバイアスの増大とレコメンデーションノベルティの減少に敏感であることを示す最近の研究結果を考えると、APRの過度な性能、すなわち、新規性、カバレッジ、人気バイアスの増幅が注目されている。
本研究では,bprおよびapr最適化フレームワークの学習特性をモデル化し,フィードバックデータがテール分布を持つ場合,短頭項目からの肯定的な更新数が不均衡であることから,aprがbprよりも人気バイアスを増幅することを示す。
行列因子分解(mf)を用いて,bpr-mf と apr-mf の性能を精度と精度の指標で比較するために,2つの公開データセットで予備実験を行い,理論結果を実証的に検証した。
実験の結果, 新奇性および被覆率の低下と, バイアスの懸念の増幅が一貫して示された。
関連論文リスト
- Overcoming Reward Overoptimization via Adversarial Policy Optimization
with Lightweight Uncertainty Estimation [50.0151082930949]
AdvPO(Adversarial Policy Optimization)は、人間からの強化学習における報酬過度最適化の問題に対する新しい解決策である。
本稿では,報酬モデルの最後の層埋め込みにのみ依存して,報酬の不確実性を定量化する軽量な手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:20:12Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Gradient-Boosted Decision Tree for Listwise Context Model in Multimodal
Review Helpfulness Prediction [40.09991896766369]
マルチモーダルレビュー ヘルプフルネス予測は、予測された有用度スコアに基づいて製品レビューをランク付けすることを目的としている。
本稿ではMRHPランキングの文脈を明確に把握するリストワイズアテンションネットワークを提案する。
また,製品レビューの表現を効果的に分割するスコア予測木として,勾配ブースト決定木を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:31:00Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Item-based Variational Auto-encoder for Fair Music Recommendation [1.8782288713227568]
EvalRS DataChallengeは、評価の正確性、公平性、多様性を考慮して、より現実的なレコメンデーションシステムを構築することを目的としている。
提案システムは,アイテムベース変分自動エンコーダ(VAE)とベイズパーソナライズされたランキング行列分解(BPRMF)のアンサンブルに基づく。
論文 参考訳(メタデータ) (2022-10-24T06:42:16Z) - Off-policy evaluation for learning-to-rank via interpolating the
item-position model and the position-based model [83.83064559894989]
産業レコメンデーションシステムにとって重要なニーズは、製品にデプロイする前に、レコメンデーションポリシーをオフラインで評価する機能である。
我々は、最も人気のある2つの非政治推定器の問題を緩和する新しい推定器を開発する。
特に、InterPOLと呼ばれる新しい推定器は、潜在的に不特定位置ベースモデルのバイアスに対処する。
論文 参考訳(メタデータ) (2022-10-15T17:22:30Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Debiasing Neural Retrieval via In-batch Balancing Regularization [25.941718123899356]
我々は,nPRF上でのT-統計を有効活用し,公平性を向上させるために,識別可能なテキストトナー付きペアワイドランキングフェアネス(nPRF)を開発した。
nPRF を用いた手法は,ベースラインに比べてランク付け性能の低下が最小限に抑えられ,バイアスが大幅に低減される。
論文 参考訳(メタデータ) (2022-05-18T22:57:15Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Debiased Explainable Pairwise Ranking from Implicit Feedback [0.3867363075280543]
BPR(Bayesian Personalized Ranking)に焦点をあてる。
BPRはアウトプットを説明しないブラックボックスモデルであり、ユーザのレコメンデーションに対する信頼を制限する。
本稿では,項目に基づく説明とともにレコメンデーションを生成する新しい説明可能な損失関数と,それに対応する行列分解モデルを提案する。
論文 参考訳(メタデータ) (2021-07-30T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。