論文の概要: FairSort: Learning to Fair Rank for Personalized Recommendations in Two-Sided Platforms
- arxiv url: http://arxiv.org/abs/2412.00424v2
- Date: Sun, 08 Dec 2024 07:07:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:47:00.994793
- Title: FairSort: Learning to Fair Rank for Personalized Recommendations in Two-Sided Platforms
- Title(参考訳): FairSort: 2面プラットフォームにおけるパーソナライズされたレコメンデーションのための公正なランクへの学習
- Authors: Guoli Wu, Zhiyong Feng, Shizhan Chen, Hongyue Wu, Xiao Xue, Jianmao Xiao, Guodong Fan, Hongqi Chen, Jingyu Li,
- Abstract要約: 本稿では,ユーザ側フェアネス,プロバイダ側フェアネス,パーソナライズされたレコメンデーションユーティリティ間のトレードオフソリューションを見つけるためのモデルであるFairSortを提案する。
FairSortは、プロバイダとユーザの両方の公正性を考慮しながら、より信頼性の高いパーソナライズされたレコメンデーションを保証できることを示します。
- 参考スコア(独自算出の注目度): 14.423710571021433
- License:
- Abstract: Traditional recommendation systems focus on maximizing user satisfaction by suggesting their favourite items. This user-centric approach may lead to unfair exposure distribution among the providers. On the contrary, a provider-centric design might become unfair to the users. Therefore, this paper proposes a re-ranking model FairSort to find a trade-off solution among user-side fairness, provider-side fairness, and personalized recommendations utility. Previous works habitually treat this issue as a knapsack problem, incorporating both-side fairness as constraints. In this paper, we adopt a novel perspective, treating each recommendation list as a runway rather than a knapsack. In this perspective, each item on the runway gains a velocity and runs within a specific time, achieving re-ranking for both-side fairness. Meanwhile, we ensure the Minimum Utility Guarantee for personalized recommendations by designing a Binary Search approach. This can provide more reliable recommendations compared to the conventional greedy strategy based on the knapsack problem. We further broaden the applicability of FairSort, designing two versions for online and offline recommendation scenarios. Theoretical analysis and extensive experiments on real-world datasets indicate that FairSort can ensure more reliable personalized recommendations while considering fairness for both the provider and user.
- Abstract(参考訳): 従来のレコメンデーションシステムは、好みのアイテムを提案することによって、ユーザの満足度を最大化することに焦点を当てている。
このユーザ中心のアプローチは、プロバイダ間の不公平な露出分布につながる可能性がある。
逆に、プロバイダ中心のデザインは、ユーザにとって不公平になるかも知れません。
そこで本稿では,ユーザ側フェアネス,プロバイダ側フェアネス,パーソナライズされたレコメンデーションユーティリティのトレードオフソリューションを見つけるために,FairSortの再評価モデルを提案する。
それまでの作業では、この問題をknapsack問題として扱い、両面の公正性を制約として取り入れていた。
本稿では,各レコメンデーションリストをクナップサックではなく滑走路として扱う,新しい視点を採用する。
この観点では、滑走路上の各アイテムはベロシティを取得し、特定の時間内で実行され、両面の公平性のために再ランク付けされる。
一方、バイナリ検索アプローチを設計することで、パーソナライズされたレコメンデーションのための最小ユーティリティ保証を保証します。
これは、knapsack問題に基づく従来の欲求戦略と比較して、より信頼性の高いレコメンデーションを提供することができる。
さらにFairSortの適用性を広げ、オンラインとオフラインのレコメンデーションシナリオ用に2つのバージョンを設計します。
実世界のデータセットに関する理論的分析と広範な実験は、FairSortがプロバイダとユーザの両方の公正性を考慮しながら、より信頼性の高いパーソナライズされたレコメンデーションを保証できることを示している。
関連論文リスト
- User-item fairness tradeoffs in recommendations [0.7490658564954134]
ユーザとアイテムの公平度を目標としたリコメンデーションのモデルを構築した。
a) ユーザの嗜好が多様である場合, 「自由」な項目とユーザフェアネスが存在する場合, および, (b) 好ましくない利用者は, 項目フェアネスの制約によって特に不利になる可能性がある。
論文 参考訳(メタデータ) (2024-12-05T18:59:51Z) - Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - The Unfairness of Active Users and Popularity Bias in Point-of-Interest
Recommendation [4.578469978594752]
本稿では, (i) アクティブユーザの不公平さ, (ii) 人気項目の不公平さ, (iii) 調査三角形の3つの角度として推薦の精度について検討する。
アイテムフェアネスでは、アイテムをショートヘッド、ミッドテール、ロングテールグループに分割し、これらのアイテムグループの露出をユーザのトップkレコメンデーションリストにまとめる。
本研究は, 消費者と生産者の公正性を両立させることができず, 自然バイアスが原因と考えられる変数間のトレードオフが示唆されている。
論文 参考訳(メタデータ) (2022-02-27T08:02:19Z) - A Graph-based Approach for Mitigating Multi-sided Exposure Bias in
Recommender Systems [7.3129791870997085]
FairMatchは、アイテムやサプライヤーの露出公正性を改善するグラフベースのアルゴリズムである。
2つのデータセットに関する包括的な実験と最先端のベースラインとの比較により、FairMatchは露出公正性と集約多様性を大幅に改善する一方で、レコメンデーションの許容レベルを維持している。
論文 参考訳(メタデータ) (2021-07-07T18:01:26Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Towards Personalized Fairness based on Causal Notion [18.5897206797918]
本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
論文 参考訳(メタデータ) (2021-05-20T15:24:34Z) - TFROM: A Two-sided Fairness-Aware Recommendation Model for Both
Customers and Providers [10.112208859874618]
私たちは、顧客とプロバイダーの両方のための両面公平性認識推奨モデル(TFROM)を設計します。
実験では、TFROMはベースラインアルゴリズムよりも高いレベルのパーソナライゼーションを維持しながら、より良い両面公平性を提供する。
論文 参考訳(メタデータ) (2021-04-19T02:46:54Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。