論文の概要: A Causal Linear Model to Quantify Edge Flow and Edge Unfairness for
UnfairEdge Prioritization and Discrimination Removal
- arxiv url: http://arxiv.org/abs/2007.05516v4
- Date: Thu, 11 Mar 2021 05:35:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:34:32.106839
- Title: A Causal Linear Model to Quantify Edge Flow and Edge Unfairness for
UnfairEdge Prioritization and Discrimination Removal
- Title(参考訳): エッジフローとエッジの不公平性を定量化するための因果線形モデル
- Authors: Pavan Ravishankar, Pranshu Malviya, Balaraman Ravindran
- Abstract要約: 本稿では、現実世界における不公平さを緩和する前に、不公平な情報源の優先順位付けを試みる。
間接経路の影響を減衰させることにより,エッジに沿って流れる信念であるエッジフローを定量化する。
次に、エッジの不公平度が減少する際の累積不公平性を緩和する可能性を測定する。
- 参考スコア(独自算出の注目度): 16.096824533334352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Law enforcement must prioritize sources of unfairness before mitigating their
underlying unfairness, considering that they have limited resources. Unlike
previous works that only make cautionary claims of discrimination and de-biases
data after its generation, this paper attempts to prioritize unfair sources
before mitigating their unfairness in the real-world. We assume that a causal
bayesian network, representative of the data generation procedure, along with
the sensitive nodes, that result in unfairness, are given. We quantify Edge
Flow, which is the belief flowing along an edge by attenuating the indirect
path influences, and use it to quantify Edge Unfairness. We prove that
cumulative unfairness is non-existent in any decision, like judicial bail,
towards any sensitive groups, like race, when the edge unfairness is absent,
given an error-free linear model of conditional probability. We then measure
the potential to mitigate the cumulative unfairness when edge unfairness is
decreased. Based on these measures, we propose an unfair edge prioritization
algorithm that prioritizes the unfair edges and a discrimination removal
procedure that de-biases the generated data distribution. The experimental
section validates the specifications used for quantifying the above measures.
- Abstract(参考訳): 法執行機関は、その基盤となる不公平さを緩和する前に、資源が限られていることを考慮し、不公平な源を優先しなければならない。
本論文は, 差別の注意喚起とデータ消去のみを行う先行研究と異なり, 実世界での不公平さを緩和する前に不公平な情報源の優先順位付けを試みる。
我々は、データ生成手順の代表である因果ベイズネットワークと、不公平な結果となるセンシティブノードが与えられると仮定する。
間接経路の影響を減衰させることでエッジに沿って流れる信念であるエッジフローを定量化し、エッジの不公平さを定量化する。
条件付き確率の誤差のない線形モデルが与えられた場合, 累積的不公平性は, 法的保釈などの決定において, 人種などの機密グループに対して存在しないことを証明する。
次に、エッジの不公平が減少する際の累積不公平を緩和する可能性を測定する。
そこで本研究では,不公平なエッジを優先する不公平なエッジ優先化アルゴリズムと,生成されたデータ分布を非バイザリングする識別除去手順を提案する。
実験部は、上記の措置を定量化するための仕様を検証する。
関連論文リスト
- The Impact of Differential Feature Under-reporting on Algorithmic
Fairness [94.24956808302319]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Fair Clustering: A Causal Perspective [5.885238773559016]
非因果フェアネスの概念の最適化は、因果的観点から直接差別効果をパラドックス的に引き起こすことが示されている。
本稿では、因果フェアネス指標を取り入れたクラスタリング手法を提案し、教師なし学習における公平性に対するよりニュアンスなアプローチを提供する。
論文 参考訳(メタデータ) (2023-12-14T15:58:03Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - A Causal Approach for Unfair Edge Prioritization and Discrimination
Removal [16.323822608442836]
現実世界で不公平を緩和する措置をとる前に、不公平の源泉を優先することが不可欠である。
この作業は、Unfair Edge Prioritizationアルゴリズムによって与えられるデータ生成時の不公平性を緩和するツールキットを提供する。
論文 参考訳(メタデータ) (2021-11-29T06:47:16Z) - A Distributionally Robust Approach to Fair Classification [17.759493152879013]
本研究では、性別や民族などのセンシティブな属性に対する差別を防止する不公平なペナルティを持つロジスティックなロジスティック回帰モデルを提案する。
このモデルは、トレーニングデータ上の経験的分布を中心とするワッサーシュタイン球が分布の不確かさのモデル化に使用される場合、トラクタブル凸最適化問題と等価である。
得られた分類器は, 合成データセットと実データセットの両方において, 予測精度の限界損失による公平性の向上を実証する。
論文 参考訳(メタデータ) (2020-07-18T22:34:48Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。