論文の概要: "And the Winner Is...": Dynamic Lotteries for Multi-group Fairness-Aware
Recommendation
- arxiv url: http://arxiv.org/abs/2009.02590v1
- Date: Sat, 5 Sep 2020 20:15:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 20:42:59.669787
- Title: "And the Winner Is...": Dynamic Lotteries for Multi-group Fairness-Aware
Recommendation
- Title(参考訳): 「勝者は...」:マルチグループフェアネス・アウェア・レコメンデーションのための動的ロテリ
- Authors: Nasim Sonboli, Robin Burke, Nicholas Mattei, Farzad Eskandanian, Tian
Gao
- Abstract要約: 我々は、以前の文献は単純で一様であり、フェアネスの仮定の単次元の概念に基づいていたと論じる。
私たちは、多元的定義と交差する保護されたグループ間の正確性と公平性の間のトレードオフに参入する設計上の決定を明確に表現します。
公正な関心事を選択するための宝くじに基づくメカニズムを定式化し、その性能を2つの推奨領域で実証する。
- 参考スコア(独自算出の注目度): 37.35485045640196
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As recommender systems are being designed and deployed for an increasing
number of socially-consequential applications, it has become important to
consider what properties of fairness these systems exhibit. There has been
considerable research on recommendation fairness. However, we argue that the
previous literature has been based on simple, uniform and often uni-dimensional
notions of fairness assumptions that do not recognize the real-world
complexities of fairness-aware applications. In this paper, we explicitly
represent the design decisions that enter into the trade-off between accuracy
and fairness across multiply-defined and intersecting protected groups,
supporting multiple fairness metrics. The framework also allows the recommender
to adjust its performance based on the historical view of recommendations that
have been delivered over a time horizon, dynamically rebalancing between
fairness concerns. Within this framework, we formulate lottery-based mechanisms
for choosing between fairness concerns, and demonstrate their performance in
two recommendation domains.
- Abstract(参考訳): 推薦システムは、社会的に連続したアプリケーションの増加のために設計され、デプロイされているため、これらのシステムがどのような公正性を示すかを考えることが重要である。
推薦の公平性に関する研究が盛んである。
しかし、従来の文献は、公正な仮定の単純で一様であり、しばしば一次元的な概念に基づいており、公正を意識したアプリケーションの現実的な複雑さを認識していない。
本稿では,複数のフェアネス指標をサポートする複数の保護グループをまたいで,正確性と公平性の間のトレードオフに陥る設計決定を明示的に表現する。
フレームワークはまた、リコメンダがそのパフォーマンスを、時間軸を超えて提供されたリコメンデーションの歴史的見解に基づいて調整することを可能にする。
本枠組みでは、公平度を考慮に入れた抽選に基づくメカニズムを定式化し、その性能を2つの推奨領域で示す。
関連論文リスト
- A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Dynamic fairness-aware recommendation through multi-agent social choice [10.556124653827647]
我々は、現実世界のアプリケーション設定における公平性、特にパーソナライズされたレコメンデーションの文脈において、より複雑で多面的であると主張している。
本稿では,2段階の社会的選択問題として,推薦システムにおけるマルチステークホルダフェアネスを定式化するモデルを提案する。
論文 参考訳(メタデータ) (2023-03-02T05:06:17Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Simultaneous Relevance and Diversity: A New Recommendation Inference
Approach [81.44167398308979]
本稿では,新しいCF推論手法である負対陽性を導入することにより,一般協調フィルタリング(CF)を拡張した新しい手法を提案する。
我々のアプローチは、様々な高度なレベルでの幅広い推奨シナリオ/ユースケースに適用できる。
公開データセットと実世界の生産データに関する分析と実験により、我々のアプローチは、関連性および多様性に関する既存の手法を同時に上回ることを示した。
論文 参考訳(メタデータ) (2020-09-27T22:20:12Z) - On the Identification of Fair Auditors to Evaluate Recommender Systems
based on a Novel Non-Comparative Fairness Notion [1.116812194101501]
意思決定支援システムは、多くの実践的な展開の文脈で差別的であることが判明した。
非比較正義の原理に基づく新しい公正概念を提案する。
提案したフェアネスの概念は、比較フェアネスの概念の観点からも保証を提供することを示す。
論文 参考訳(メタデータ) (2020-09-09T16:04:41Z) - HyperFair: A Soft Approach to Integrating Fairness Criteria [17.770533330914102]
我々は,ハイブリッドレコメンデータシステムにおいて,ソフトフェアネス制約を強制するフレームワークであるHyperFairを紹介する。
まず,確率的ソフトロジックレコメンデータシステムテンプレートの拡張として提案する手法を提案する。
複数のHyperFairハイブリッドレコメンデータを実装することで,私たちのアプローチを実証的に検証し,最先端のフェアレコメンデータと比較する。
論文 参考訳(メタデータ) (2020-09-05T05:00:06Z) - Achieving Fairness via Post-Processing in Web-Scale Recommender Systems [6.5191290612443105]
フェアネスの定義を推薦システム、すなわち機会の等式と等化確率に拡張する。
そこで我々は,位置バイアスの存在下でのランク付けにおける機会の平等と確率の等化を達成するためのスケーラブルな手法を提案する。
論文 参考訳(メタデータ) (2020-06-19T20:12:13Z) - Opportunistic Multi-aspect Fairness through Personalized Re-ranking [5.8562079474220665]
複数の公正度次元にわたる個人の嗜好を学習するフェアネス・アウェア・レコメンデーションに対する再ランクのアプローチを提案する。
我々は,我々の正当性とメートル法に依存しないアプローチが,従来よりも正確性と公平性の間のトレードオフを良好に達成していることを示す。
論文 参考訳(メタデータ) (2020-05-21T04:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。