論文の概要: Explaining Knock-on Effects of Bias Mitigation
- arxiv url: http://arxiv.org/abs/2312.00765v1
- Date: Fri, 1 Dec 2023 18:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 13:36:23.156788
- Title: Explaining Knock-on Effects of Bias Mitigation
- Title(参考訳): バイアス緩和のノックオン効果を説明する
- Authors: Svetoslav Nizhnichenkov, Rahul Nair, Elizabeth Daly, Brian Mac Namee
- Abstract要約: 機械学習システムでは、バイアス緩和アプローチは特権と特権のないグループ間で成果をより公平にすることを目的としている。
本稿では,緩和介入を適用した場合のコホートの影響を特徴付けることを目的とする。
モデルライフサイクルの様々な段階で機能するバイアス緩和戦略について検討する。
検討の結果,全ての緩和策が非自明な事例,すなわち緩和努力のみでは望ましくない結果に悪影響を及ぼすことが明らかとなった。
- 参考スコア(独自算出の注目度): 13.46387356280467
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In machine learning systems, bias mitigation approaches aim to make outcomes
fairer across privileged and unprivileged groups. Bias mitigation methods work
in different ways and have known "waterfall" effects, e.g., mitigating bias at
one place may manifest bias elsewhere. In this paper, we aim to characterise
impacted cohorts when mitigation interventions are applied. To do so, we treat
intervention effects as a classification task and learn an explainable
meta-classifier to identify cohorts that have altered outcomes. We examine a
range of bias mitigation strategies that work at various stages of the model
life cycle. We empirically demonstrate that our meta-classifier is able to
uncover impacted cohorts. Further, we show that all tested mitigation
strategies negatively impact a non-trivial fraction of cases, i.e., people who
receive unfavourable outcomes solely on account of mitigation efforts. This is
despite improvement in fairness metrics. We use these results as a basis to
argue for more careful audits of static mitigation interventions that go beyond
aggregate metrics.
- Abstract(参考訳): 機械学習システムでは、バイアス緩和アプローチは特権と特権のないグループ間で成果をより公平にすることを目的としている。
バイアス緩和法は様々な方法で機能し、例えばある場所でバイアスを緩和するなど「水」効果が知られている。
本稿では,緩和介入を適用した場合のコホートの影響を特徴付けることを目的とする。
そのために,介入効果を分類タスクとして扱い,説明可能なメタ分類法を学習し,結果が変化するコホートを識別する。
モデルライフサイクルの様々な段階で動作するバイアス緩和戦略について検討する。
メタ分類器が衝突したコホートを発見できることを実証的に実証した。
さらに,すべての緩和戦略が非自明な症例,すなわち緩和努力のみを理由として好ましくない結果が得られた者に負の影響を与えることを示した。
これは公正度指標の改善にもかかわらずである。
これらの結果を基礎として、メトリクスを集約する以上の静的緩和介入のより慎重な監査を行うために使用します。
関連論文リスト
- Causal Inference from Text: Unveiling Interactions between Variables [20.677407402398405]
既存の方法は、治療と結果の両方に影響を及ぼす共変量しか説明できない。
このバイアスは、衝突しない共変量について十分に考慮されていないことから生じる。
本研究では,変数間の相互作用を明らかにすることにより,バイアスを軽減することを目的とする。
論文 参考訳(メタデータ) (2023-11-09T11:29:44Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Disentangled Representation for Causal Mediation Analysis [25.114619307838602]
因果媒介分析(英: Causal mediation analysis)は、直接的および間接的な効果を明らかにするためにしばしば用いられる方法である。
深層学習はメディエーション分析において有望であるが、現在の手法では、治療、メディエーター、結果に同時に影響を及ぼす潜在的共同創設者のみを前提としている。
そこで本研究では,助成金の表現を3つのタイプに分けて,自然的直接効果,自然間接効果,および全効果を正確に推定する,ディスタングル・メディエーション分析変分自動エンコーダ(DMAVAE)を提案する。
論文 参考訳(メタデータ) (2023-02-19T23:37:17Z) - When Mitigating Bias is Unfair: A Comprehensive Study on the Impact of
Bias Mitigation Algorithms [5.606953005101632]
偏見緩和アプローチは, 対象者数と対象者数の両方において, 戦略に大きく違いがあることが示される。
これらの結果は、現在のグループフェアネス指標の限界に関する疑問を提起する。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - How Far Can It Go?: On Intrinsic Gender Bias Mitigation for Text
Classification [12.165921897192902]
そこで,本研究では,本態性バイアス緩和戦略が下流テキスト分類タスクに与える影響について検討する。
それぞれの緩和技術は、固有のバイアス対策からバイアスを隠すことができるが、すべてではないことを示す。
我々は、本質的なバイアス軽減手法と、下流タスクに対する他の公平な介入を組み合わせることを推奨する。
論文 参考訳(メタデータ) (2023-01-30T13:05:48Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z) - Cascaded Debiasing: Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Fair Classification with Group-Dependent Label Noise [6.324366770332667]
本研究は,学習ラベルがランダムノイズで破損した環境で,公平な分類器を訓練する方法を検討する。
異種・集団依存の誤差率を考慮せずに、人口格差尺度にパリティ制約を鼻で課すことにより、その結果の精度と公平性を低下させることができることを示す。
論文 参考訳(メタデータ) (2020-10-31T22:35:01Z) - Almost-Matching-Exactly for Treatment Effect Estimation under Network
Interference [73.23326654892963]
本研究では,観測ネットワーク上でユニットが接続されたランダム化実験から直接処理効果を回復するマッチング手法を提案する。
本手法は, 近傍グラフ内の一意部分グラフの個数にほぼ一致する。
論文 参考訳(メタデータ) (2020-03-02T15:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。