論文の概要: Why Fair Labels Can Yield Unfair Predictions: Graphical Conditions for
Introduced Unfairness
- arxiv url: http://arxiv.org/abs/2202.10816v2
- Date: Wed, 23 Feb 2022 10:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 07:20:42.991106
- Title: Why Fair Labels Can Yield Unfair Predictions: Graphical Conditions for
Introduced Unfairness
- Title(参考訳): 公正なラベルが不公平な予測をもたらす理由:不公平性導入のためのグラフィカルな条件
- Authors: Carolyn Ashurst, Ryan Carey, Silvia Chiappa, Tom Everitt
- Abstract要約: トレーニングデータにおける差別関係の再現に加えて、機械学習システムは差別効果の導入や増幅も可能である。
我々は、このことを不公平を導入し、それが生じる可能性のある状況について調査する。
本稿では,不公平化の指標として全変量を導入し,そのインセンティブが生じる可能性のあるグラフィカルな条件を確立することを提案する。
- 参考スコア(独自算出の注目度): 14.710365964629066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In addition to reproducing discriminatory relationships in the training data,
machine learning systems can also introduce or amplify discriminatory effects.
We refer to this as introduced unfairness, and investigate the conditions under
which it may arise. To this end, we propose introduced total variation as a
measure of introduced unfairness, and establish graphical conditions under
which it may be incentivised to occur. These criteria imply that adding the
sensitive attribute as a feature removes the incentive for introduced variation
under well-behaved loss functions. Additionally, taking a causal perspective,
introduced path-specific effects shed light on the issue of when specific paths
should be considered fair.
- Abstract(参考訳): トレーニングデータにおける差別関係の再現に加えて、機械学習システムは差別効果の導入や増幅も可能である。
我々は、このことを不公平を導入し、それが生じる可能性のある状況について調査する。
そこで本研究では,不公平さの尺度として総変動を導入し,そのインセンティブを付与できるグラフィカルな条件を定式化する。
これらの基準は、機能としてセンシティブな属性を追加することで、よく定義された損失関数の下で導入される変動に対するインセンティブがなくなることを示唆している。
さらに、因果的な視点から、特定のパスが公平であるべき時の問題に光を当てたパス固有の効果が導入された。
関連論文リスト
- Fair Clustering: A Causal Perspective [5.885238773559016]
非因果フェアネスの概念の最適化は、因果的観点から直接差別効果をパラドックス的に引き起こすことが示されている。
本稿では、因果フェアネス指標を取り入れたクラスタリング手法を提案し、教師なし学習における公平性に対するよりニュアンスなアプローチを提供する。
論文 参考訳(メタデータ) (2023-12-14T15:58:03Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Understanding Instance-Level Impact of Fairness Constraints [12.866655972682254]
公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
論文 参考訳(メタデータ) (2022-06-30T17:31:33Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Shortcomings of Counterfactual Fairness and a Proposed Modification [0.0]
反事実的公正性は、アルゴリズムが公正であるために必要な条件ではないと私は主張する。
そして、この欠点を解決するために、どのように制約を修正できるかを提案します。
論文 参考訳(メタデータ) (2020-11-14T14:49:51Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。