論文の概要: FairNeuron: Improving Deep Neural Network Fairness with Adversary Games
on Selective Neurons
- arxiv url: http://arxiv.org/abs/2204.02567v1
- Date: Wed, 6 Apr 2022 03:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:20:43.660574
- Title: FairNeuron: Improving Deep Neural Network Fairness with Adversary Games
on Selective Neurons
- Title(参考訳): fairneuron: 選択的ニューロン上の敵ゲームによるディープニューラルネットワークの公平性向上
- Authors: Xuanqi Gao, Juan Zhai, Shiqing Ma, Chao Shen, Yufei Chen, Qian Wang
- Abstract要約: フェアネスの懸念を緩和し、精度とフェアネスのトレードオフのバランスをとるためのモデル自動修復ツールであるFairNeuronを提案する。
私たちのアプローチは軽量で、スケーラブルで効率的です。
3つの評価結果から,FairNeuronは安定的なユーティリティを維持しながら,すべてのモデルの公平性を効果的に向上できることを示す。
- 参考スコア(独自算出の注目度): 22.132637957776833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With Deep Neural Network (DNN) being integrated into a growing number of
critical systems with far-reaching impacts on society, there are increasing
concerns on their ethical performance, such as fairness. Unfortunately, model
fairness and accuracy in many cases are contradictory goals to optimize. To
solve this issue, there has been a number of work trying to improve model
fairness by using an adversarial game in model level. This approach introduces
an adversary that evaluates the fairness of a model besides its prediction
accuracy on the main task, and performs joint-optimization to achieve a
balanced result. In this paper, we noticed that when performing backward
propagation based training, such contradictory phenomenon has shown on
individual neuron level. Based on this observation, we propose FairNeuron, a
DNN model automatic repairing tool, to mitigate fairness concerns and balance
the accuracy-fairness trade-off without introducing another model. It works on
detecting neurons with contradictory optimization directions from accuracy and
fairness training goals, and achieving a trade-off by selective dropout.
Comparing with state-of-the-art methods, our approach is lightweight, making it
scalable and more efficient. Our evaluation on 3 datasets shows that FairNeuron
can effectively improve all models' fairness while maintaining a stable
utility.
- Abstract(参考訳): ディープ・ニューラル・ニューラルネットワーク(DNN)は、社会に多大な影響を与えている多くの重要なシステムに統合されているため、公平性などの倫理的パフォーマンスに対する懸念が高まっている。
残念なことに、多くの場合、モデルの公平さと正確さは最適化の矛盾する目標である。
この問題を解決するために,モデルレベルでの対戦ゲームを用いることで,モデルフェアネスを改善するための作業が数多く行われている。
本手法では,主課題における予測精度以外のモデルの公平性を評価し,バランスの取れた結果を得るために協調最適化を行う。
本稿では,後方伝播に基づくトレーニングを行うと,その相反する現象が各ニューロンのレベルに現れることに気付いた。
そこで本研究では,DNNモデルの自動修復ツールであるFairNeuronを提案する。
正確さと公平さのトレーニング目標から相反する最適化方向のニューロンを検出し、選択的ドロップアウトによるトレードオフを達成する。
最先端のメソッドと比較して、私たちのアプローチは軽量で、スケーラブルで効率的です。
3つのデータセットに対する評価は、FairNeuronが安定したユーティリティを維持しながら、全てのモデルの公平性を効果的に改善できることを示している。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - NeuFair: Neural Network Fairness Repair with Dropout [19.49034966552718]
本稿では,ディープニューラルネットワーク(DNN)における後処理バイアス緩和としてのニューロンのドロップアウトについて検討する。
ランダム化アルゴリズムの設計は, モデルの性能劣化を最小限に抑えつつ, 公平性(最大69%)を向上させるのに効果的であり, 効率的であることを示す。
論文 参考訳(メタデータ) (2024-07-05T05:45:34Z) - Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Adaptive Fairness Improvement Based on Causality Analysis [5.827653543633839]
識別ニューラルネットワークが与えられた場合、公平性向上の問題は、その性能を著しく損なうことなく、系統的に差別を減らすことである。
本稿では,因果分析に基づくフェアネス改善手法を適応的に選択する手法を提案する。
我々のアプローチは効果的(すなわち、常に最良の公正性を改善する方法を特定する)で効率的(すなわち平均時間オーバーヘッドが5分)である。
論文 参考訳(メタデータ) (2022-09-15T10:05:31Z) - ESCHER: Eschewing Importance Sampling in Games by Computing a History
Value Function to Estimate Regret [97.73233271730616]
超大型ゲームにおけるナッシュ均衡の近似手法 : ニューラルネットワークを用いて近似最適ポリシー(戦略)を学習する
DREAMは,モンテカルロCFR(MCCFR)から受け継がれた重要なサンプリング項により,極めて高いばらつきを有すると推定された後悔のターゲット上で,ニューラルネットワークを訓練する。
ESCHERの深層学習バージョンは、DREAMとニューラル・フィクション・セルフプレイ(NFSP)の先行状態よりも優れており、ゲームサイズが大きくなるにつれて、その違いは劇的になる。
論文 参考訳(メタデータ) (2022-06-08T18:43:45Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - To be Robust or to be Fair: Towards Fairness in Adversarial Training [83.42241071662897]
逆行訓練アルゴリズムは、異なるデータ群間の精度と堅牢性に深刻な違いをもたらす傾向がある。
本稿では、敵防衛を行う際の不公平問題を軽減するためのFair-Robust-Learning(FRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T02:21:54Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z) - Triple Wins: Boosting Accuracy, Robustness and Efficiency Together by
Enabling Input-Adaptive Inference [119.19779637025444]
深層ネットワークは、(クリーンな自然画像の場合)正確さと(敵対的な摂動画像の場合)頑健さの相違に直面することを最近提案された。
本稿では,入力適応推論に関連するマルチエグジットネットワークについて検討し,モデル精度,ロバスト性,効率の最適化において「スイートポイント」を達成する上での強い期待を示す。
論文 参考訳(メタデータ) (2020-02-24T00:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。