論文の概要: Why Fair Labels Can Yield Unfair Predictions: Graphical Conditions for
Introduced Unfairness
- arxiv url: http://arxiv.org/abs/2202.10816v1
- Date: Tue, 22 Feb 2022 11:16:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 21:26:43.173050
- Title: Why Fair Labels Can Yield Unfair Predictions: Graphical Conditions for
Introduced Unfairness
- Title(参考訳): 公正なラベルが不公平な予測をもたらす理由:不公平性導入のためのグラフィカルな条件
- Authors: Carolyn Ashurst, Ryan Carey, Silvia Chiappa, Tom Everitt
- Abstract要約: トレーニングデータにおける差別関係の再現に加えて、機械学習システムは差別効果の導入や増幅も可能である。
我々は、このことを不公平を導入し、それが生じる可能性のある状況について調査する。
本稿では,不公平化の指標として全変量を導入し,そのインセンティブが生じる可能性のあるグラフィカルな条件を確立することを提案する。
- 参考スコア(独自算出の注目度): 14.710365964629066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In addition to reproducing discriminatory relationships in the training data,
machine learning systems can also introduce or amplify discriminatory effects.
We refer to this as introduced unfairness, and investigate the conditions under
which it may arise. To this end, we propose introduced total variation as a
measure of introduced unfairness, and establish graphical conditions under
which it may be incentivised to occur. These criteria imply that adding the
sensitive attribute as a feature removes the incentive for introduced variation
under well-behaved loss functions. Additionally, taking a causal perspective,
introduced path-specific effects shed light on the issue of when specific paths
should be considered fair.
- Abstract(参考訳): トレーニングデータにおける差別関係の再現に加えて、機械学習システムは差別効果の導入や増幅も可能である。
我々は、このことを不公平を導入し、それが生じる可能性のある状況について調査する。
そこで本研究では,不公平さの尺度として総変動を導入し,そのインセンティブを付与できるグラフィカルな条件を定式化する。
これらの基準は、機能としてセンシティブな属性を追加することで、よく定義された損失関数の下で導入される変動に対するインセンティブがなくなることを示唆している。
さらに、因果的な視点から、特定のパスが公平であるべき時の問題に光を当てたパス固有の効果が導入された。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Understanding Instance-Level Impact of Fairness Constraints [12.866655972682254]
公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
論文 参考訳(メタデータ) (2022-06-30T17:31:33Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Shortcomings of Counterfactual Fairness and a Proposed Modification [0.0]
反事実的公正性は、アルゴリズムが公正であるために必要な条件ではないと私は主張する。
そして、この欠点を解決するために、どのように制約を修正できるかを提案します。
論文 参考訳(メタデータ) (2020-11-14T14:49:51Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。