論文の概要: Adaptive Fairness Improvement Based on Causality Analysis
- arxiv url: http://arxiv.org/abs/2209.07190v1
- Date: Thu, 15 Sep 2022 10:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 13:46:58.293036
- Title: Adaptive Fairness Improvement Based on Causality Analysis
- Title(参考訳): 因果解析に基づく適応フェアネス改善
- Authors: Mengdi Zhang and Jun Sun
- Abstract要約: 識別ニューラルネットワークが与えられた場合、公平性向上の問題は、その性能を著しく損なうことなく、系統的に差別を減らすことである。
本稿では,因果分析に基づくフェアネス改善手法を適応的に選択する手法を提案する。
我々のアプローチは効果的(すなわち、常に最良の公正性を改善する方法を特定する)で効率的(すなわち平均時間オーバーヘッドが5分)である。
- 参考スコア(独自算出の注目度): 5.827653543633839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a discriminating neural network, the problem of fairness improvement is
to systematically reduce discrimination without significantly scarifies its
performance (i.e., accuracy). Multiple categories of fairness improving methods
have been proposed for neural networks, including pre-processing, in-processing
and post-processing. Our empirical study however shows that these methods are
not always effective (e.g., they may improve fairness by paying the price of
huge accuracy drop) or even not helpful (e.g., they may even worsen both
fairness and accuracy). In this work, we propose an approach which adaptively
chooses the fairness improving method based on causality analysis. That is, we
choose the method based on how the neurons and attributes responsible for
unfairness are distributed among the input attributes and the hidden neurons.
Our experimental evaluation shows that our approach is effective (i.e., always
identify the best fairness improving method) and efficient (i.e., with an
average time overhead of 5 minutes).
- Abstract(参考訳): 識別ニューラルネットワークが与えられた場合、公平性改善の問題は、その性能(すなわち精度)を著しく損なうことなく、体系的に識別を減らすことである。
ニューラルネットワークでは、前処理、内処理、後処理など、複数のフェアネス改善手法が提案されている。
しかし、経験的な研究では、これらの手法が必ずしも有効ではない(例えば、大きな精度低下の代償を支払うことで公正性を改善する)、あるいは役に立たない(例えば、公平さと正確さの両方を悪化させる)ことが示されています。
本研究では,因果解析に基づくフェアネス改善手法を適応的に選択する手法を提案する。
すなわち、入力属性と隠れたニューロンの間に不公平の原因となるニューロンと属性がどう分配されるかに基づいて、この方法を選択する。
実験結果から,我々のアプローチは効果的(つまり,常に最善の公平性改善方法を特定する)かつ効率的(つまり,平均5分間のオーバーヘッドで)であることが示された。
関連論文リスト
- Biasing & Debiasing based Approach Towards Fair Knowledge Transfer for Equitable Skin Analysis [16.638722872021095]
学生ネットワークに公平な知識を伝達する2バイアスの教師のアプローチを提案する。
本手法は,学生ネットワークに存在するバイアスを,予測精度を損なうことなく軽減する。
論文 参考訳(メタデータ) (2024-05-16T17:02:23Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Fair Infinitesimal Jackknife: Mitigating the Influence of Biased
Training Data Points Without Refitting [41.96570350954332]
本稿では、慎重に選択されたトレーニングデータポイントをドロップするだけで、事前学習した分類器の公平性を向上するアルゴリズムを提案する。
このような介入はモデルの予測性能を大幅に低下させるものではないが、公正度基準を大幅に改善する。
論文 参考訳(メタデータ) (2022-12-13T18:36:19Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。