論文の概要: Explaining Knock-on Effects of Bias Mitigation
- arxiv url: http://arxiv.org/abs/2312.00765v1
- Date: Fri, 1 Dec 2023 18:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 13:36:23.156788
- Title: Explaining Knock-on Effects of Bias Mitigation
- Title(参考訳): バイアス緩和のノックオン効果を説明する
- Authors: Svetoslav Nizhnichenkov, Rahul Nair, Elizabeth Daly, Brian Mac Namee
- Abstract要約: 機械学習システムでは、バイアス緩和アプローチは特権と特権のないグループ間で成果をより公平にすることを目的としている。
本稿では,緩和介入を適用した場合のコホートの影響を特徴付けることを目的とする。
モデルライフサイクルの様々な段階で機能するバイアス緩和戦略について検討する。
検討の結果,全ての緩和策が非自明な事例,すなわち緩和努力のみでは望ましくない結果に悪影響を及ぼすことが明らかとなった。
- 参考スコア(独自算出の注目度): 13.46387356280467
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In machine learning systems, bias mitigation approaches aim to make outcomes
fairer across privileged and unprivileged groups. Bias mitigation methods work
in different ways and have known "waterfall" effects, e.g., mitigating bias at
one place may manifest bias elsewhere. In this paper, we aim to characterise
impacted cohorts when mitigation interventions are applied. To do so, we treat
intervention effects as a classification task and learn an explainable
meta-classifier to identify cohorts that have altered outcomes. We examine a
range of bias mitigation strategies that work at various stages of the model
life cycle. We empirically demonstrate that our meta-classifier is able to
uncover impacted cohorts. Further, we show that all tested mitigation
strategies negatively impact a non-trivial fraction of cases, i.e., people who
receive unfavourable outcomes solely on account of mitigation efforts. This is
despite improvement in fairness metrics. We use these results as a basis to
argue for more careful audits of static mitigation interventions that go beyond
aggregate metrics.
- Abstract(参考訳): 機械学習システムでは、バイアス緩和アプローチは特権と特権のないグループ間で成果をより公平にすることを目的としている。
バイアス緩和法は様々な方法で機能し、例えばある場所でバイアスを緩和するなど「水」効果が知られている。
本稿では,緩和介入を適用した場合のコホートの影響を特徴付けることを目的とする。
そのために,介入効果を分類タスクとして扱い,説明可能なメタ分類法を学習し,結果が変化するコホートを識別する。
モデルライフサイクルの様々な段階で動作するバイアス緩和戦略について検討する。
メタ分類器が衝突したコホートを発見できることを実証的に実証した。
さらに,すべての緩和戦略が非自明な症例,すなわち緩和努力のみを理由として好ましくない結果が得られた者に負の影響を与えることを示した。
これは公正度指標の改善にもかかわらずである。
これらの結果を基礎として、メトリクスを集約する以上の静的緩和介入のより慎重な監査を行うために使用します。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Reranking individuals: The effect of fair classification within-groups [3.706222947143855]
バイアス緩和技術は、敏感なグループ間でのインスタンスのペアのランク付けに影響を及ぼす。
これらの効果は精度・公正性評価の枠組みにおいてレーダーの下に留まっている。
いくつかの一般的なバイアス緩和手法の効果と、その出力が現実世界のシナリオを反映しない場合について説明する。
論文 参考訳(メタデータ) (2024-01-24T11:41:30Z) - Causal Inference from Text: Unveiling Interactions between Variables [20.677407402398405]
既存の方法は、治療と結果の両方に影響を及ぼす共変量しか説明できない。
このバイアスは、衝突しない共変量について十分に考慮されていないことから生じる。
本研究では,変数間の相互作用を明らかにすることにより,バイアスを軽減することを目的とする。
論文 参考訳(メタデータ) (2023-11-09T11:29:44Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - When mitigating bias is unfair: multiplicity and arbitrariness in algorithmic group fairness [8.367620276482056]
本稿では,5次元によるバイアス緩和を評価するFRAME(FaiRness Arbitrariness and Multiplicity Evaluation)フレームワークを紹介する。
FRAMEをキーデータセット全体にわたる様々なバイアス緩和アプローチに適用することにより、デバイアス手法の挙動に顕著な違いを示すことができる。
これらの知見は、現在の公平性基準の限界と、偏見過程における固有の仲裁性を強調している。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - How Far Can It Go?: On Intrinsic Gender Bias Mitigation for Text
Classification [12.165921897192902]
そこで,本研究では,本態性バイアス緩和戦略が下流テキスト分類タスクに与える影響について検討する。
それぞれの緩和技術は、固有のバイアス対策からバイアスを隠すことができるが、すべてではないことを示す。
我々は、本質的なバイアス軽減手法と、下流タスクに対する他の公平な介入を組み合わせることを推奨する。
論文 参考訳(メタデータ) (2023-01-30T13:05:48Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z) - Cascaded Debiasing: Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - Fair Classification with Group-Dependent Label Noise [6.324366770332667]
本研究は,学習ラベルがランダムノイズで破損した環境で,公平な分類器を訓練する方法を検討する。
異種・集団依存の誤差率を考慮せずに、人口格差尺度にパリティ制約を鼻で課すことにより、その結果の精度と公平性を低下させることができることを示す。
論文 参考訳(メタデータ) (2020-10-31T22:35:01Z) - Almost-Matching-Exactly for Treatment Effect Estimation under Network
Interference [73.23326654892963]
本研究では,観測ネットワーク上でユニットが接続されたランダム化実験から直接処理効果を回復するマッチング手法を提案する。
本手法は, 近傍グラフ内の一意部分グラフの個数にほぼ一致する。
論文 参考訳(メタデータ) (2020-03-02T15:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。