論文の概要: A Causal Linear Model to Quantify Edge Flow and Edge Unfairness for
UnfairEdge Prioritization and Discrimination Removal
- arxiv url: http://arxiv.org/abs/2007.05516v4
- Date: Thu, 11 Mar 2021 05:35:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:34:32.106839
- Title: A Causal Linear Model to Quantify Edge Flow and Edge Unfairness for
UnfairEdge Prioritization and Discrimination Removal
- Title(参考訳): エッジフローとエッジの不公平性を定量化するための因果線形モデル
- Authors: Pavan Ravishankar, Pranshu Malviya, Balaraman Ravindran
- Abstract要約: 本稿では、現実世界における不公平さを緩和する前に、不公平な情報源の優先順位付けを試みる。
間接経路の影響を減衰させることにより,エッジに沿って流れる信念であるエッジフローを定量化する。
次に、エッジの不公平度が減少する際の累積不公平性を緩和する可能性を測定する。
- 参考スコア(独自算出の注目度): 16.096824533334352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Law enforcement must prioritize sources of unfairness before mitigating their
underlying unfairness, considering that they have limited resources. Unlike
previous works that only make cautionary claims of discrimination and de-biases
data after its generation, this paper attempts to prioritize unfair sources
before mitigating their unfairness in the real-world. We assume that a causal
bayesian network, representative of the data generation procedure, along with
the sensitive nodes, that result in unfairness, are given. We quantify Edge
Flow, which is the belief flowing along an edge by attenuating the indirect
path influences, and use it to quantify Edge Unfairness. We prove that
cumulative unfairness is non-existent in any decision, like judicial bail,
towards any sensitive groups, like race, when the edge unfairness is absent,
given an error-free linear model of conditional probability. We then measure
the potential to mitigate the cumulative unfairness when edge unfairness is
decreased. Based on these measures, we propose an unfair edge prioritization
algorithm that prioritizes the unfair edges and a discrimination removal
procedure that de-biases the generated data distribution. The experimental
section validates the specifications used for quantifying the above measures.
- Abstract(参考訳): 法執行機関は、その基盤となる不公平さを緩和する前に、資源が限られていることを考慮し、不公平な源を優先しなければならない。
本論文は, 差別の注意喚起とデータ消去のみを行う先行研究と異なり, 実世界での不公平さを緩和する前に不公平な情報源の優先順位付けを試みる。
我々は、データ生成手順の代表である因果ベイズネットワークと、不公平な結果となるセンシティブノードが与えられると仮定する。
間接経路の影響を減衰させることでエッジに沿って流れる信念であるエッジフローを定量化し、エッジの不公平さを定量化する。
条件付き確率の誤差のない線形モデルが与えられた場合, 累積的不公平性は, 法的保釈などの決定において, 人種などの機密グループに対して存在しないことを証明する。
次に、エッジの不公平が減少する際の累積不公平を緩和する可能性を測定する。
そこで本研究では,不公平なエッジを優先する不公平なエッジ優先化アルゴリズムと,生成されたデータ分布を非バイザリングする識別除去手順を提案する。
実験部は、上記の措置を定量化するための仕様を検証する。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fair Clustering: A Causal Perspective [5.885238773559016]
非因果フェアネスの概念の最適化は、因果的観点から直接差別効果をパラドックス的に引き起こすことが示されている。
本稿では、因果フェアネス指標を取り入れたクラスタリング手法を提案し、教師なし学習における公平性に対するよりニュアンスなアプローチを提供する。
論文 参考訳(メタデータ) (2023-12-14T15:58:03Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - A Causal Approach for Unfair Edge Prioritization and Discrimination
Removal [16.323822608442836]
現実世界で不公平を緩和する措置をとる前に、不公平の源泉を優先することが不可欠である。
この作業は、Unfair Edge Prioritizationアルゴリズムによって与えられるデータ生成時の不公平性を緩和するツールキットを提供する。
論文 参考訳(メタデータ) (2021-11-29T06:47:16Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。