論文の概要: Opportunistic Multi-aspect Fairness through Personalized Re-ranking
- arxiv url: http://arxiv.org/abs/2005.12974v1
- Date: Thu, 21 May 2020 04:25:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 22:35:43.141644
- Title: Opportunistic Multi-aspect Fairness through Personalized Re-ranking
- Title(参考訳): パーソナライズされた再ランクによるオポチュニティなマルチアスペクトフェアネス
- Authors: Nasim Sonboli, Farzad Eskandanian, Robin Burke, Weiwen Liu, Bamshad
Mobasher
- Abstract要約: 複数の公正度次元にわたる個人の嗜好を学習するフェアネス・アウェア・レコメンデーションに対する再ランクのアプローチを提案する。
我々は,我々の正当性とメートル法に依存しないアプローチが,従来よりも正確性と公平性の間のトレードオフを良好に達成していることを示す。
- 参考スコア(独自算出の注目度): 5.8562079474220665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As recommender systems have become more widespread and moved into areas with
greater social impact, such as employment and housing, researchers have begun
to seek ways to ensure fairness in the results that such systems produce. This
work has primarily focused on developing recommendation approaches in which
fairness metrics are jointly optimized along with recommendation accuracy.
However, the previous work had largely ignored how individual preferences may
limit the ability of an algorithm to produce fair recommendations. Furthermore,
with few exceptions, researchers have only considered scenarios in which
fairness is measured relative to a single sensitive feature or attribute (such
as race or gender). In this paper, we present a re-ranking approach to
fairness-aware recommendation that learns individual preferences across
multiple fairness dimensions and uses them to enhance provider fairness in
recommendation results. Specifically, we show that our opportunistic and
metric-agnostic approach achieves a better trade-off between accuracy and
fairness than prior re-ranking approaches and does so across multiple fairness
dimensions.
- Abstract(参考訳): 推薦システムが広く普及し、雇用や住宅などの社会的影響が大きい地域へと移り変わるにつれ、研究者たちはそのようなシステムが生み出す結果の公平性を確保する方法を模索し始めている。
この研究は主に、フェアネス指標とレコメンデーション精度を共同で最適化するレコメンデーションアプローチの開発に重点を置いている。
しかし、以前の研究は、個人の好みが公正なレコメンデーションを生成するアルゴリズムの能力を制限することをほとんど無視していた。
さらに、少数の例外を除いて、研究者は、単一のセンシティブな特徴や属性(人種や性別など)に対して公平性を測定するシナリオのみを考慮してきた。
本稿では,複数のフェアネス次元にまたがる個人の嗜好を学習し,その結果のプロバイダのフェアネスを高めるための,フェアネス認識レコメンデーションの再ランキング手法を提案する。
具体的には、我々の正当性とメートル法に依存しないアプローチは、以前の再格付けアプローチよりも精度と公平性の間のトレードオフを良好に達成し、複数の公正性次元にわたってそれを行うことを示す。
関連論文リスト
- Fair Reciprocal Recommendation in Matching Markets [0.8287206589886881]
エージェント間の双方向のマッチング市場における相互推薦について検討する。
我々のモデルでは、双方の個人が互いに関心を抱いている場合にのみ、マッチが成功すると考えられる。
フェアディビジョン理論の観点から、そのフェアネス基準、うらやましい自由さを導入する。
論文 参考訳(メタデータ) (2024-09-01T13:33:41Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - A Graph-based Approach for Mitigating Multi-sided Exposure Bias in
Recommender Systems [7.3129791870997085]
FairMatchは、アイテムやサプライヤーの露出公正性を改善するグラフベースのアルゴリズムである。
2つのデータセットに関する包括的な実験と最先端のベースラインとの比較により、FairMatchは露出公正性と集約多様性を大幅に改善する一方で、レコメンデーションの許容レベルを維持している。
論文 参考訳(メタデータ) (2021-07-07T18:01:26Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - "And the Winner Is...": Dynamic Lotteries for Multi-group Fairness-Aware
Recommendation [37.35485045640196]
我々は、以前の文献は単純で一様であり、フェアネスの仮定の単次元の概念に基づいていたと論じる。
私たちは、多元的定義と交差する保護されたグループ間の正確性と公平性の間のトレードオフに参入する設計上の決定を明確に表現します。
公正な関心事を選択するための宝くじに基づくメカニズムを定式化し、その性能を2つの推奨領域で実証する。
論文 参考訳(メタデータ) (2020-09-05T20:15:14Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。