論文の概要: FairFLRep: Fairness aware fault localization and repair of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2508.08151v1
- Date: Mon, 11 Aug 2025 16:28:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.208681
- Title: FairFLRep: Fairness aware fault localization and repair of Deep Neural Networks
- Title(参考訳): FairFLRep: 深部ニューラルネットワークの障害局所化と修復を意識したフェアネス
- Authors: Moses Openja, Paolo Arcaini, Foutse Khomh, Fuyuki Ishikawa,
- Abstract要約: 本稿では,FairFLRepについて紹介する。
FairFLRepは、人種や性別などのセンシティブな属性に関連するニューロンの重みを調整することで、不公平な決定に責任を負うニューロンを補正する。
- 参考スコア(独自算出の注目度): 15.009024933890645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are being utilized in various aspects of our daily lives, including high-stakes decision-making applications that impact individuals. However, these systems reflect and amplify bias from the data used during training and testing, potentially resulting in biased behavior and inaccurate decisions. For instance, having different misclassification rates between white and black sub-populations. However, effectively and efficiently identifying and correcting biased behavior in DNNs is a challenge. This paper introduces FairFLRep, an automated fairness-aware fault localization and repair technique that identifies and corrects potentially bias-inducing neurons in DNN classifiers. FairFLRep focuses on adjusting neuron weights associated with sensitive attributes, such as race or gender, that contribute to unfair decisions. By analyzing the input-output relationships within the network, FairFLRep corrects neurons responsible for disparities in predictive quality parity. We evaluate FairFLRep on four image classification datasets using two DNN classifiers, and four tabular datasets with a DNN model. The results show that FairFLRep consistently outperforms existing methods in improving fairness while preserving accuracy. An ablation study confirms the importance of considering fairness during both fault localization and repair stages. Our findings also show that FairFLRep is more efficient than the baseline approaches in repairing the network.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、個人に影響を与える高精度な意思決定アプリケーションなど、私たちの日常生活のさまざまな側面で利用されています。
しかしながら、これらのシステムはトレーニングやテストで使用されるデータからバイアスを反映し、増幅する。
例えば、白と黒のサブポピュレーションの誤分類率が異なる。
しかし、DNNにおけるバイアスされた振る舞いを効果的かつ効率的に識別し、修正することは困難である。
本稿では,DNN分類器における潜在的なバイアス誘発ニューロンの同定と修正を行うFairFLRepについて紹介する。
FairFLRepは、人種や性別などのセンシティブな属性に関連するニューロンの重みを調整することに焦点を当て、不公平な判断に寄与する。
ネットワーク内の入出力関係を解析することにより、FairFLRepは予測品質のパリティにおける不一致の原因となるニューロンを補正する。
2つのDNN分類器と4つのDNNモデルを用いて4つの画像分類データセット上でFairFLRepを評価する。
その結果,FairFLRepは精度を保ちながら公正性を向上する既存の手法よりも優れていた。
Ablation study is confirmed the importance of consider fairness during both fault localization and repair stage。
また,FairFLRepはネットワーク修復におけるベースラインアプローチよりも効率が高いことがわかった。
関連論文リスト
- NeuFair: Neural Network Fairness Repair with Dropout [19.49034966552718]
本稿では,ディープニューラルネットワーク(DNN)における後処理バイアス緩和としてのニューロンのドロップアウトについて検討する。
ランダム化アルゴリズムの設計は, モデルの性能劣化を最小限に抑えつつ, 公平性(最大69%)を向上させるのに効果的であり, 効率的であることを示す。
論文 参考訳(メタデータ) (2024-07-05T05:45:34Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - FAIRER: Fairness as Decision Rationale Alignment [23.098752318439782]
ディープニューラルネットワーク(DNN)は大きな進歩を遂げているが、フェアネスの問題に悩まされることが多い。
トレーニングされたネットワークがどのように公正な予測を行い、将来の公正性を改善するのかは不明だ。
本稿では, 勾配誘導パリティアライメントを提案し, サブグループ間のニューロンの勾配重み付けを促進させる。
論文 参考訳(メタデータ) (2023-06-27T08:37:57Z) - Information-Theoretic Testing and Debugging of Fairness Defects in Deep
Neural Networks [13.425444923812586]
ディープフィードフォワードニューラルネットワーク(DNN)は、社会経済的決定支援ソフトウェアシステムにますます導入されている。
本稿では,DNNにおける公平性欠陥の検出とローカライズを行う情報理論テストおよびデバッグフレームワークDICEを提案する。
DICEは識別の量を効率よく特徴付けし、識別インスタンスを効果的に生成し、大きなバイアスを伴うレイヤ/ニューロンをローカライズする。
論文 参考訳(メタデータ) (2023-04-09T09:16:27Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。