論文の概要: FairSort: Learning to Fair Rank for Personalized Recommendations in Two-Sided Platforms
- arxiv url: http://arxiv.org/abs/2412.00424v1
- Date: Sat, 30 Nov 2024 10:30:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:40:15.536936
- Title: FairSort: Learning to Fair Rank for Personalized Recommendations in Two-Sided Platforms
- Title(参考訳): FairSort: 2面プラットフォームにおけるパーソナライズされたレコメンデーションのための公正なランクへの学習
- Authors: Guoli Wu, Zhiyong Feng, Shizhan Chen, Hongyue Wu, Xiao Xue, Jianmao Xiao, Guodong Fan, Hongqi Chen, Jingyu Li,
- Abstract要約: 本稿では,ユーザ側フェアネス,プロバイダ側フェアネス,パーソナライズされたレコメンデーションユーティリティ間のトレードオフソリューションを見つけるためのモデルであるFairSortを提案する。
さらにFairSortの適用性を広げ、オンラインとオフラインのレコメンデーションシナリオ用に2つのバージョンを設計します。
- 参考スコア(独自算出の注目度): 14.423710571021433
- License:
- Abstract: Traditional recommendation systems focus on maximizing user satisfaction by suggesting their favorite items. This user-centric approach may lead to unfair exposure distribution among the providers. On the contrary, a provider-centric design might become unfair to the users. Therefore, this paper proposes a re-ranking model FairSort\footnote{\textbf{Reproducibility:}The code and datasets are available at \url{https://github.com/13543024276/FairSort}} to find a trade-off solution among user-side fairness, provider-side fairness, and personalized recommendations utility. Previous works habitually treat this issue as a knapsack problem, incorporating both-side fairness as constraints. In this paper, we adopt a novel perspective, treating each recommendation list as a runway rather than a knapsack. In this perspective, each item on the runway gains a velocity and runs within a specific time, achieving re-ranking for both-side fairness. Meanwhile, we ensure the Minimum Utility Guarantee for personalized recommendations by designing a Binary Search approach. This can provide more reliable recommendations compared to the conventional greedy strategy based on the knapsack problem. We further broaden the applicability of FairSort, designing two versions for online and offline recommendation scenarios. Theoretical analysis and extensive experiments on real-world datasets indicate that FairSort can ensure more reliable personalized recommendations while considering fairness for both the provider and user.
- Abstract(参考訳): 従来のレコメンデーションシステムは、好みのアイテムを提案することで、ユーザの満足度を最大化することに焦点を当てている。
このユーザ中心のアプローチは、プロバイダ間の不公平な露出分布につながる可能性がある。
逆に、プロバイダ中心のデザインは、ユーザにとって不公平になるかも知れません。
そこで本稿では,FairSort\footnote{\textbf{Reproducibility:} コードとデータセットが \url{https://github.com/13543024276/FairSort}} で利用可能であり,ユーザ側のフェアネス,プロバイダ側のフェアネス,パーソナライズされたレコメンデーションユーティリティ間のトレードオフソリューションを見つけることができる。
それまでの作業では、この問題をknapsack問題として扱い、両面の公正性を制約として取り入れていた。
本稿では,各レコメンデーションリストをクナップサックではなく滑走路として扱う,新しい視点を採用する。
この観点では、滑走路上の各アイテムはベロシティを取得し、特定の時間内で実行され、両面の公平性のために再ランク付けされる。
一方、バイナリ検索アプローチを設計することで、パーソナライズされたレコメンデーションのための最小ユーティリティ保証を保証します。
これは、knapsack問題に基づく従来の欲求戦略と比較して、より信頼性の高いレコメンデーションを提供することができる。
さらにFairSortの適用性を広げ、オンラインとオフラインのレコメンデーションシナリオ用に2つのバージョンを設計します。
実世界のデータセットに関する理論的分析と広範な実験は、FairSortがプロバイダとユーザの両方の公正性を考慮しながら、より信頼性の高いパーソナライズされたレコメンデーションを保証できることを示している。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - DifFaiRec: Generative Fair Recommender with Conditional Diffusion Model [22.653890395053207]
本稿では,拡散に基づくFair Recommender (DifFaiRec) という新しい推薦アルゴリズムを提案する。
DifFaiRecは条件付き拡散モデルに基づいており、アイテムのレーティングからユーザの好みの分布を学習する強力な能力を持っている。
公正性を保証するため,保護属性に対するモデル感度を低減し,数学的説明を提供するために,対物モジュールを設計する。
論文 参考訳(メタデータ) (2024-09-18T07:39:33Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - The Unfairness of Active Users and Popularity Bias in Point-of-Interest
Recommendation [4.578469978594752]
本稿では, (i) アクティブユーザの不公平さ, (ii) 人気項目の不公平さ, (iii) 調査三角形の3つの角度として推薦の精度について検討する。
アイテムフェアネスでは、アイテムをショートヘッド、ミッドテール、ロングテールグループに分割し、これらのアイテムグループの露出をユーザのトップkレコメンデーションリストにまとめる。
本研究は, 消費者と生産者の公正性を両立させることができず, 自然バイアスが原因と考えられる変数間のトレードオフが示唆されている。
論文 参考訳(メタデータ) (2022-02-27T08:02:19Z) - A Graph-based Approach for Mitigating Multi-sided Exposure Bias in
Recommender Systems [7.3129791870997085]
FairMatchは、アイテムやサプライヤーの露出公正性を改善するグラフベースのアルゴリズムである。
2つのデータセットに関する包括的な実験と最先端のベースラインとの比較により、FairMatchは露出公正性と集約多様性を大幅に改善する一方で、レコメンデーションの許容レベルを維持している。
論文 参考訳(メタデータ) (2021-07-07T18:01:26Z) - Towards Personalized Fairness based on Causal Notion [18.5897206797918]
本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
論文 参考訳(メタデータ) (2021-05-20T15:24:34Z) - TFROM: A Two-sided Fairness-Aware Recommendation Model for Both
Customers and Providers [10.112208859874618]
私たちは、顧客とプロバイダーの両方のための両面公平性認識推奨モデル(TFROM)を設計します。
実験では、TFROMはベースラインアルゴリズムよりも高いレベルのパーソナライゼーションを維持しながら、より良い両面公平性を提供する。
論文 参考訳(メタデータ) (2021-04-19T02:46:54Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - SetRank: A Setwise Bayesian Approach for Collaborative Ranking from
Implicit Feedback [50.13745601531148]
提案手法は,提案システムにおける暗黙的フィードバックの特性に対応するために,協調的ランキング(SeetRank)のためのセッティングワイドベイズ的手法を提案する。
具体的には、SetRankは、新しい設定された選好比較の後方確率を最大化することを目的としている。
また、SetRankの理論解析により、余剰リスクの境界が$sqrtM/N$に比例できることを示す。
論文 参考訳(メタデータ) (2020-02-23T06:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。