論文の概要: User-item fairness tradeoffs in recommendations
- arxiv url: http://arxiv.org/abs/2412.04466v1
- Date: Thu, 05 Dec 2024 18:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:42:45.262172
- Title: User-item fairness tradeoffs in recommendations
- Title(参考訳): レコメンデーションにおけるユーザイットムフェアネスのトレードオフ
- Authors: Sophie Greenwood, Sudalakshmee Chiniah, Nikhil Garg,
- Abstract要約: ユーザとアイテムの公平度を目標としたリコメンデーションのモデルを構築した。
a) ユーザの嗜好が多様である場合, 「自由」な項目とユーザフェアネスが存在する場合, および, (b) 好ましくない利用者は, 項目フェアネスの制約によって特に不利になる可能性がある。
- 参考スコア(独自算出の注目度): 0.7490658564954134
- License:
- Abstract: In the basic recommendation paradigm, the most (predicted) relevant item is recommended to each user. This may result in some items receiving lower exposure than they "should"; to counter this, several algorithmic approaches have been developed to ensure item fairness. These approaches necessarily degrade recommendations for some users to improve outcomes for items, leading to user fairness concerns. In turn, a recent line of work has focused on developing algorithms for multi-sided fairness, to jointly optimize user fairness, item fairness, and overall recommendation quality. This induces the question: what is the tradeoff between these objectives, and what are the characteristics of (multi-objective) optimal solutions? Theoretically, we develop a model of recommendations with user and item fairness objectives and characterize the solutions of fairness-constrained optimization. We identify two phenomena: (a) when user preferences are diverse, there is "free" item and user fairness; and (b) users whose preferences are misestimated can be especially disadvantaged by item fairness constraints. Empirically, we prototype a recommendation system for preprints on arXiv and implement our framework, measuring the phenomena in practice and showing how these phenomena inform the design of markets with recommendation systems-intermediated matching.
- Abstract(参考訳): 基本的なレコメンデーションパラダイムでは、最も(予測された)関連するアイテムがユーザ毎に推奨されます。
これに対抗して、アイテムの公正性を確保するためにいくつかのアルゴリズムアプローチが開発されている。
これらのアプローチは、アイテムの結果を改善するためのレコメンデーションを減らし、ユーザフェアネスの懸念につながります。
逆に、最近の研究は、ユーザフェアネス、アイテムフェアネス、全体的なレコメンデーション品質を共同で最適化する、マルチサイドフェアネスのためのアルゴリズムの開発に重点を置いている。
このことは、これらの目的間のトレードオフと、(多目的)最適解の特徴とは何なのか、という疑問を引き起こします。
理論的には、ユーザとアイテムの公正度を目標とした推薦モデルを開発し、公正度制約のある最適化の解を特徴付ける。
私たちは2つの現象を識別する。
(a) 利用者の嗜好が多様である場合には、「自由」な項目とユーザフェアネスがある。
(b)好ましくない利用者は、商品の公正性の制約により特に不利になることがある。
経験的に、我々はarXivのプレプリントのためのレコメンデーションシステムを試作し、我々のフレームワークを実装し、実践中の現象を測定し、これらの現象がレコメンデーションシステムを利用したマッチングによって市場デザインにどう影響するかを示す。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - A Graph-based Approach for Mitigating Multi-sided Exposure Bias in
Recommender Systems [7.3129791870997085]
FairMatchは、アイテムやサプライヤーの露出公正性を改善するグラフベースのアルゴリズムである。
2つのデータセットに関する包括的な実験と最先端のベースラインとの比較により、FairMatchは露出公正性と集約多様性を大幅に改善する一方で、レコメンデーションの許容レベルを維持している。
論文 参考訳(メタデータ) (2021-07-07T18:01:26Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - Towards Personalized Fairness based on Causal Notion [18.5897206797918]
本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
論文 参考訳(メタデータ) (2021-05-20T15:24:34Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Opportunistic Multi-aspect Fairness through Personalized Re-ranking [5.8562079474220665]
複数の公正度次元にわたる個人の嗜好を学習するフェアネス・アウェア・レコメンデーションに対する再ランクのアプローチを提案する。
我々は,我々の正当性とメートル法に依存しないアプローチが,従来よりも正確性と公平性の間のトレードオフを良好に達成していることを示す。
論文 参考訳(メタデータ) (2020-05-21T04:25:20Z) - Exploring User Opinions of Fairness in Recommender Systems [13.749884072907163]
ユーザーが推奨する公平な待遇の考えは何なのかを尋ねる。
公平性に対するユーザの意見の相違や変化の原因となるものを分析する。
論文 参考訳(メタデータ) (2020-03-13T19:44:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。