論文の概要: Beyond Individual and Group Fairness
- arxiv url: http://arxiv.org/abs/2008.09490v1
- Date: Fri, 21 Aug 2020 14:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:11:01.984228
- Title: Beyond Individual and Group Fairness
- Title(参考訳): 個人とグループフェアネスを超えて
- Authors: Pranjal Awasthi, Corinna Cortes, Yishay Mansour, Mehryar Mohri
- Abstract要約: 本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
- 参考スコア(独自算出の注目度): 90.4666341812857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new data-driven model of fairness that, unlike existing static
definitions of individual or group fairness is guided by the unfairness
complaints received by the system. Our model supports multiple fairness
criteria and takes into account their potential incompatibilities. We consider
both a stochastic and an adversarial setting of our model. In the stochastic
setting, we show that our framework can be naturally cast as a Markov Decision
Process with stochastic losses, for which we give efficient vanishing regret
algorithmic solutions. In the adversarial setting, we design efficient
algorithms with competitive ratio guarantees. We also report the results of
experiments with our algorithms and the stochastic framework on artificial
datasets, to demonstrate their effectiveness empirically.
- Abstract(参考訳): 本稿では,公平性に関する既存の静的定義とは異なり,システムから受信された不公平性に導かれる新しいデータ駆動型公平性モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な非互換性を考慮している。
我々はこのモデルの確率的設定と敵対的設定の両方を考える。
確率的な設定では、我々のフレームワークは統計的損失を伴うマルコフ決定プロセスとして自然にキャストされ、効率的な消滅する後悔のアルゴリズム的解を与えることができる。
逆条件下では、競合比が保証される効率的なアルゴリズムを設計する。
また,我々のアルゴリズムと人工データセットの確率的フレームワークを用いた実験結果を報告し,その効果を実証的に示す。
関連論文リスト
- DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z) - On Adversarial Bias and the Robustness of Fair Machine Learning [11.584571002297217]
異なるサイズと分布の群に同じ重要性を与えることで、トレーニングデータにおけるバイアスの影響を防止できることが、ロバストネスと矛盾する可能性があることを示す。
少数のトレーニングデータのサンプリングやラベル付けを制御できる敵は、制約のないモデルで達成できる以上のテスト精度を著しく削減することができる。
我々は、複数のアルゴリズムとベンチマークデータセットに対する攻撃の実証的な評価を通じて、公正な機械学習の堅牢性を分析する。
論文 参考訳(メタデータ) (2020-06-15T18:17:44Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。