論文の概要: HyperFair: A Soft Approach to Integrating Fairness Criteria
- arxiv url: http://arxiv.org/abs/2009.08952v1
- Date: Sat, 5 Sep 2020 05:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 20:52:50.511553
- Title: HyperFair: A Soft Approach to Integrating Fairness Criteria
- Title(参考訳): HyperFair: 公正な基準を統合するためのソフトアプローチ
- Authors: Charles Dickens, Rishika Singh, Lise Getoor
- Abstract要約: 我々は,ハイブリッドレコメンデータシステムにおいて,ソフトフェアネス制約を強制するフレームワークであるHyperFairを紹介する。
まず,確率的ソフトロジックレコメンデータシステムテンプレートの拡張として提案する手法を提案する。
複数のHyperFairハイブリッドレコメンデータを実装することで,私たちのアプローチを実証的に検証し,最先端のフェアレコメンデータと比較する。
- 参考スコア(独自算出の注目度): 17.770533330914102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems are being employed across an increasingly diverse set of
domains that can potentially make a significant social and individual impact.
For this reason, considering fairness is a critical step in the design and
evaluation of such systems. In this paper, we introduce HyperFair, a general
framework for enforcing soft fairness constraints in a hybrid recommender
system. HyperFair models integrate variations of fairness metrics as a
regularization of a joint inference objective function. We implement our
approach using probabilistic soft logic and show that it is particularly
well-suited for this task as it is expressive and structural constraints can be
added to the system in a concise and interpretable manner. We propose two ways
to employ the methods we introduce: first as an extension of a probabilistic
soft logic recommender system template; second as a fair retrofitting technique
that can be used to improve the fairness of predictions from a black-box model.
We empirically validate our approach by implementing multiple HyperFair hybrid
recommenders and compare them to a state-of-the-art fair recommender. We also
run experiments showing the effectiveness of our methods for the task of
retrofitting a black-box model and the trade-off between the amount of fairness
enforced and the prediction performance.
- Abstract(参考訳): レコメンダシステムは、社会的および個人的影響をもたらす可能性のある、ますます多様なドメインのセットで採用されている。
このため、公平性を考慮することは、このようなシステムの設計と評価において重要なステップである。
本稿では,ハイブリッドレコメンダシステムにおいてソフトフェアネス制約を強制する汎用フレームワークであるhyperfairを提案する。
HyperFairモデルは、ジョイント推論対象関数の正規化として、フェアネスメトリクスのバリエーションを統合する。
我々は,この手法を確率的ソフト論理を用いて実装し,表現力と構造的制約を簡潔かつ解釈可能な方法でシステムに追加できることから,このタスクに特に適していることを示す。
まず, 確率的ソフトロジック・レコメンデータ・システムテンプレートの拡張として, ブラックボックスモデルから予測の公平性を改善するための公正なレトロフィッティング手法として, 二つの手法を提案する。
複数のHyperFairハイブリッドレコメンデータを実装することで,私たちのアプローチを実証的に検証し,最先端のフェアレコメンデータと比較する。
また,ブラックボックスモデルの再適合作業における手法の有効性と,実施した公正度と予測性能とのトレードオフを示す実験を行った。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Dynamic fairness-aware recommendation through multi-agent social choice [10.556124653827647]
我々は、現実世界のアプリケーション設定における公平性、特にパーソナライズされたレコメンデーションの文脈において、より複雑で多面的であると主張している。
本稿では,2段階の社会的選択問題として,推薦システムにおけるマルチステークホルダフェアネスを定式化するモデルを提案する。
論文 参考訳(メタデータ) (2023-03-02T05:06:17Z) - Conformalized Fairness via Quantile Regression [8.180169144038345]
本稿では,デモグラフィックパリティの公正性要件に基づき,実数値量子関数を学習するための新しいフレームワークを提案する。
フェア量子化法により構築された誘導予測区間に対する分布自由被覆の理論的保証と正確な公正性を確立する。
本研究は, フェアネス・正確性トレードオフの基盤となるメカニズムを, 幅広い社会的・医療的応用において明らかにする能力を示すものである。
論文 参考訳(メタデータ) (2022-10-05T04:04:15Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - "And the Winner Is...": Dynamic Lotteries for Multi-group Fairness-Aware
Recommendation [37.35485045640196]
我々は、以前の文献は単純で一様であり、フェアネスの仮定の単次元の概念に基づいていたと論じる。
私たちは、多元的定義と交差する保護されたグループ間の正確性と公平性の間のトレードオフに参入する設計上の決定を明確に表現します。
公正な関心事を選択するための宝くじに基づくメカニズムを定式化し、その性能を2つの推奨領域で実証する。
論文 参考訳(メタデータ) (2020-09-05T20:15:14Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Achieving Fairness via Post-Processing in Web-Scale Recommender Systems [6.5191290612443105]
フェアネスの定義を推薦システム、すなわち機会の等式と等化確率に拡張する。
そこで我々は,位置バイアスの存在下でのランク付けにおける機会の平等と確率の等化を達成するためのスケーラブルな手法を提案する。
論文 参考訳(メタデータ) (2020-06-19T20:12:13Z) - Fair Bayesian Optimization [25.80374249896801]
機械学習(ML)モデルの性能を最適化するために、一般的な制約付きベイズ最適化フレームワークを導入する。
我々は、ランダムな森林、ブースティング、ニューラルネットワークなど、さまざまな人気モデルに公平性制約のあるBOを適用した。
提案手法は,モデル固有の公正性制約を強制する特殊な手法と競合することを示す。
論文 参考訳(メタデータ) (2020-06-09T08:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。