論文の概要: A Causal Approach for Unfair Edge Prioritization and Discrimination
Removal
- arxiv url: http://arxiv.org/abs/2111.14348v1
- Date: Mon, 29 Nov 2021 06:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 02:58:36.612823
- Title: A Causal Approach for Unfair Edge Prioritization and Discrimination
Removal
- Title(参考訳): 不公平なエッジ優先化と識別除去のための因果的アプローチ
- Authors: Pavan Ravishankar, Pranshu Malviya, and Balaraman Ravindran
- Abstract要約: 現実世界で不公平を緩和する措置をとる前に、不公平の源泉を優先することが不可欠である。
この作業は、Unfair Edge Prioritizationアルゴリズムによって与えられるデータ生成時の不公平性を緩和するツールキットを提供する。
- 参考スコア(独自算出の注目度): 16.323822608442836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In budget-constrained settings aimed at mitigating unfairness, like law
enforcement, it is essential to prioritize the sources of unfairness before
taking measures to mitigate them in the real world. Unlike previous works,
which only serve as a caution against possible discrimination and de-bias data
after data generation, this work provides a toolkit to mitigate unfairness
during data generation, given by the Unfair Edge Prioritization algorithm, in
addition to de-biasing data after generation, given by the Discrimination
Removal algorithm. We assume that a non-parametric Markovian causal model
representative of the data generation procedure is given. The edges emanating
from the sensitive nodes in the causal graph, such as race, are assumed to be
the sources of unfairness. We first quantify Edge Flow in any edge X -> Y,
which is the belief of observing a specific value of Y due to the influence of
a specific value of X along X -> Y. We then quantify Edge Unfairness by
formulating a non-parametric model in terms of edge flows. We then prove that
cumulative unfairness towards sensitive groups in a decision, like race in a
bail decision, is non-existent when edge unfairness is absent. We prove this
result for the non-trivial non-parametric model setting when the cumulative
unfairness cannot be expressed in terms of edge unfairness. We then measure the
Potential to mitigate the Cumulative Unfairness when edge unfairness is
decreased. Based on these measurements, we propose the Unfair Edge
Prioritization algorithm that can then be used by policymakers. We also propose
the Discrimination Removal Procedure that de-biases a data distribution by
eliminating optimization constraints that grow exponentially in the number of
sensitive attributes and values taken by them. Extensive experiments validate
the theorem and specifications used for quantifying the above measures.
- Abstract(参考訳): 法執行など不公平を緩和するための予算制約のある環境では、現実世界で不公平を緩和するための対策を講じる前に不公平の源を優先することが不可欠である。
データ生成後の差別や非バイアスデータに対する警告としてしか機能しない以前の研究とは異なり、この研究は、不公平エッジ優先化アルゴリズムによって与えられるデータ生成中の不公平性を緩和するためのツールキットを提供する。
データ生成手順を表す非パラメトリックマルコフ因果モデルが与えられると仮定する。
人種のような因果グラフのセンシティブなノードから発せられるエッジは不公平な原因であると仮定される。
X-> Y に沿った X の特定の値の影響により、Y の特定の値を観測する信念である任意のエッジ X-> Y において、エッジフローを定量化し、その後、エッジフローの観点から非パラメトリックモデルを定式化することによってエッジ不公平を定量化する。
次に、保釈決定におけるレースのような決定における機密グループに対する累積不公平性は、エッジ不公平性が欠如している場合に存在しないことを証明する。
非自明な非パラメトリックモデル設定において、累積不公平性がエッジ不公平性で表現できない場合に、この結果を証明する。
そして、エッジの不公平性が低下した場合の累積不公平を緩和する可能性を測定する。
これらの測定に基づいて,政策立案者が使用できる不公平なエッジ優先化アルゴリズムを提案する。
また,感度の高い属性数やそれらの値に指数関数的に増加する最適化制約を取り除き,データ分布を曖昧にする識別除去手法を提案する。
広範な実験は、上記の測度の定量化に使用される定理と仕様を検証する。
関連論文リスト
- Marginal Debiased Network for Fair Visual Recognition [65.64172835624206]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
より具体的には、マージンペナルティという概念をフェアネス問題に導入することにより、マージンのソフトマックスロス(MSL)を設計する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成でき、従来の手法と比較して優れたデバイアス結果を得ることができる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - A Distributionally Robust Approach to Fair Classification [17.759493152879013]
本研究では、性別や民族などのセンシティブな属性に対する差別を防止する不公平なペナルティを持つロジスティックなロジスティック回帰モデルを提案する。
このモデルは、トレーニングデータ上の経験的分布を中心とするワッサーシュタイン球が分布の不確かさのモデル化に使用される場合、トラクタブル凸最適化問題と等価である。
得られた分類器は, 合成データセットと実データセットの両方において, 予測精度の限界損失による公平性の向上を実証する。
論文 参考訳(メタデータ) (2020-07-18T22:34:48Z) - A Causal Linear Model to Quantify Edge Flow and Edge Unfairness for
UnfairEdge Prioritization and Discrimination Removal [16.096824533334352]
本稿では、現実世界における不公平さを緩和する前に、不公平な情報源の優先順位付けを試みる。
間接経路の影響を減衰させることにより,エッジに沿って流れる信念であるエッジフローを定量化する。
次に、エッジの不公平度が減少する際の累積不公平性を緩和する可能性を測定する。
論文 参考訳(メタデータ) (2020-07-10T17:50:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。