論文の概要: NeuFair: Neural Network Fairness Repair with Dropout
- arxiv url: http://arxiv.org/abs/2407.04268v1
- Date: Fri, 5 Jul 2024 05:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 14:31:15.239133
- Title: NeuFair: Neural Network Fairness Repair with Dropout
- Title(参考訳): NeuFair: ドロップアウトによるニューラルネットワークのフェアネス修復
- Authors: Vishnu Asutosh Dasu, Ashish Kumar, Saeid Tizpaz-Niari, Gang Tan,
- Abstract要約: 本稿では,ディープニューラルネットワーク(DNN)における後処理バイアス緩和手法として,ニューラルドロップアウト法について検討する。
我々は,事前学習したDNNにおける不公平性を緩和する,後処理のランダム化アルゴリズムであるNeuFairを提案する。
以上の結果から,NeuFairは公正性を最大69%向上し,最先端のポストプロセッシングバイアス技術より優れることがわかった。
- 参考スコア(独自算出の注目度): 19.49034966552718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the neural dropout method as a post-processing bias mitigation for deep neural networks (DNNs). Neural-driven software solutions are increasingly applied in socially critical domains with significant fairness implications. While neural networks are exceptionally good at finding statistical patterns from data, they are notorious for overfitting to the training datasets that may encode and amplify existing biases from the historical data. Existing bias mitigation algorithms often require either modifying the input dataset or modifying the learning algorithms. We posit that the prevalent dropout methods that prevent over-fitting during training by randomly dropping neurons may be an effective and less intrusive approach to improve fairness of pre-trained DNNs. However, finding the ideal set of neurons to drop is a combinatorial problem. We propose NeuFair, a family of post-processing randomized algorithms that mitigate unfairness in pre-trained DNNs. Our randomized search is guided by an objective to minimize discrimination while maintaining the model utility. We show that our design of randomized algorithms provides statistical guarantees on finding optimal solutions, and we empirically evaluate the efficacy and efficiency of NeuFair in improving fairness, with minimal or no performance degradation. Our results show that NeuFair improves fairness by up to 69% and outperforms state-of-the-art post-processing bias techniques.
- Abstract(参考訳): 本稿では,ディープニューラルネットワーク(DNN)の処理後バイアス軽減手法として,ニューラルドロップアウト法について検討する。
神経駆動型ソフトウェアソリューションは、社会的に重要な領域において、重要な公正性に影響を及ぼす。
ニューラルネットワークはデータから統計パターンを見つけるのに非常に適しているが、過去のデータから既存のバイアスをエンコードし増幅するトレーニングデータセットに過度に適合していることで有名だ。
既存のバイアス軽減アルゴリズムは、入力データセットを変更するか、学習アルゴリズムを変更する必要があることが多い。
ランダムにニューロンを落とすことによるトレーニング中に過剰な適合を防げる一般的なドロップアウト手法は、事前訓練されたDNNの公平性を改善するための効果的な、より侵入的なアプローチである可能性があると仮定する。
しかし、ドロップするニューロンの理想的な集合を見つけることは組合せ問題である。
我々は,事前学習したDNNにおける不公平性を緩和する,後処理のランダム化アルゴリズムであるNeuFairを提案する。
我々のランダム化検索は、モデルユーティリティを維持しながら差別を最小限に抑える目的によって導かれる。
ランダム化アルゴリズムの設計は,最適解を求めるための統計的保証を提供し,性能劣化を最小限に抑えつつ,公平性向上におけるNeuFairの有効性と効率を実証的に評価する。
以上の結果から,NeuFairは公正性を最大69%向上し,最先端のポストプロセッシングバイアス技術より優れることがわかった。
関連論文リスト
- Rethinking Deep Learning: Propagating Information in Neural Networks without Backpropagation and Statistical Optimization [0.0]
本研究では,構造を模倣するニューラルネットワークとして,情報伝達機能とNNの応用の可能性について論じる。
本研究では,段差関数をアクティベーション関数として使用し,0~15層を隠蔽し,重み更新を行わない完全連結層からなるNNSアーキテクチャを提案する。
ラベル毎のトレーニングデータの平均出力ベクトルとテストデータの出力ベクトルをベクトル類似度に基づいて比較して精度を算出する。
論文 参考訳(メタデータ) (2024-08-18T09:22:24Z) - The Unreasonable Effectiveness of Solving Inverse Problems with Neural Networks [24.766470360665647]
逆問題に対する解を学ぶために訓練されたニューラルネットワークは、トレーニングセット上でも古典よりも優れた解を見つけることができることを示す。
高速な推論のために新しいデータに一般化するのではなく、既知のデータに対するより良い解決策を見つけるためにも使用できる。
論文 参考訳(メタデータ) (2024-08-15T12:38:10Z) - SGD method for entropy error function with smoothing l0 regularization for neural networks [3.108634881604788]
エントロピー誤差関数はニューラルネットワークで広く使われている。
本稿では,フィードフォワードニューラルネットワークの規則化を円滑に行うエントロピー関数を提案する。
ニューラルネットワークを効果的に学習し、より正確な予測を可能にするため、私たちの仕事は新しくなっています。
論文 参考訳(メタデータ) (2024-05-28T19:54:26Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - FairNeuron: Improving Deep Neural Network Fairness with Adversary Games
on Selective Neurons [22.132637957776833]
フェアネスの懸念を緩和し、精度とフェアネスのトレードオフのバランスをとるためのモデル自動修復ツールであるFairNeuronを提案する。
私たちのアプローチは軽量で、スケーラブルで効率的です。
3つの評価結果から,FairNeuronは安定的なユーティリティを維持しながら,すべてのモデルの公平性を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2022-04-06T03:51:32Z) - Neuron-Specific Dropout: A Deterministic Regularization Technique to
Prevent Neural Networks from Overfitting & Reduce Dependence on Large
Training Samples [0.0]
NSDropoutは、モデルのレイヤのトレーニングパスとバリデーションパスの両方を調べます。
データセット内の各クラスのニューロンが生成する平均値を比較することで、ネットワークはターゲットユニットをドロップすることができる。
レイヤは、バリデーションからサンプルを見る際に存在しない、テスト中にモデルが見ている機能やノイズを予測することができる。
論文 参考訳(メタデータ) (2022-01-13T13:10:30Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。