論文の概要: NeuronFair: Interpretable White-Box Fairness Testing through Biased
Neuron Identification
- arxiv url: http://arxiv.org/abs/2112.13214v1
- Date: Sat, 25 Dec 2021 09:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 14:42:22.598274
- Title: NeuronFair: Interpretable White-Box Fairness Testing through Biased
Neuron Identification
- Title(参考訳): ニューロフェア:バイアスドニューロン同定によるホワイトボックスフェアネステスト
- Authors: Haibin Zheng, Zhiqing Chen, Tianyu Du, Xuhong Zhang, Yao Cheng,
Shouling Ji, Jingyi Wang, Yue Yu, and Jinyin Chen
- Abstract要約: ディープニューラルネットワーク(DNN)は、様々な領域でその性能を実証している。
DNNがセンシティブなドメイン(教育、融資、雇用など)に確実に展開される前に公平性テストを実施することが不可欠である。
本稿では,従来の研究と異なる新たなフェアネステストフレームワークであるNeuronFairを提案する。
- 参考スコア(独自算出の注目度): 25.211265460381075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have demonstrated their outperformance in various
domains. However, it raises a social concern whether DNNs can produce reliable
and fair decisions especially when they are applied to sensitive domains
involving valuable resource allocation, such as education, loan, and
employment. It is crucial to conduct fairness testing before DNNs are reliably
deployed to such sensitive domains, i.e., generating as many instances as
possible to uncover fairness violations. However, the existing testing methods
are still limited from three aspects: interpretability, performance, and
generalizability. To overcome the challenges, we propose NeuronFair, a new DNN
fairness testing framework that differs from previous work in several key
aspects: (1) interpretable - it quantitatively interprets DNNs' fairness
violations for the biased decision; (2) effective - it uses the interpretation
results to guide the generation of more diverse instances in less time; (3)
generic - it can handle both structured and unstructured data. Extensive
evaluations across 7 datasets and the corresponding DNNs demonstrate
NeuronFair's superior performance. For instance, on structured datasets, it
generates much more instances (~x5.84) and saves more time (with an average
speedup of 534.56%) compared with the state-of-the-art methods. Besides, the
instances of NeuronFair can also be leveraged to improve the fairness of the
biased DNNs, which helps build more fair and trustworthy deep learning systems.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、様々な領域でその性能を実証している。
しかし、特に教育、融資、雇用などの貴重な資源配分を含むセンシティブなドメインに適用された場合、DNNが信頼性と公正な決定を下せるかどうかという社会的懸念が高まる。
DNNがそのようなセンシティブなドメインに確実にデプロイされる前に、フェアネステストを実施することが重要である。
しかし、既存のテストメソッドは、解釈可能性、パフォーマンス、一般化性という3つの側面から制限されている。
この課題を克服するために,我々は,(1)解釈可能 - バイアス決定に対するDNNの公正性違反を定量的に解釈する; (2)有効 - 解釈結果を用いて,より多様なインスタンスの生成を少ない時間でガイドする;(3)汎用 - 構造化データと非構造化データの両方を扱うことができる,といういくつかの重要な側面において,従来のDNNの公正性テストフレームワークであるNeuronFairを提案する。
7つのデータセットと対応するdnnの広範な評価は、neuronfairの優れたパフォーマンスを示している。
例えば、構造化データセットでは、より多くのインスタンス(~x5.84)を生成し、最先端の手法と比較して、より多くの時間(平均速度534.56%)を節約する。
さらに、NeuronFairのインスタンスを利用してバイアスのあるDNNの公平性を向上させることで、より公平で信頼性の高いディープラーニングシステムを構築することができる。
関連論文リスト
- MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage [1.8238848494579714]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - FAIRER: Fairness as Decision Rationale Alignment [23.098752318439782]
ディープニューラルネットワーク(DNN)は大きな進歩を遂げているが、フェアネスの問題に悩まされることが多い。
トレーニングされたネットワークがどのように公正な予測を行い、将来の公正性を改善するのかは不明だ。
本稿では, 勾配誘導パリティアライメントを提案し, サブグループ間のニューロンの勾配重み付けを促進させる。
論文 参考訳(メタデータ) (2023-06-27T08:37:57Z) - Fairify: Fairness Verification of Neural Networks [7.673007415383724]
ニューラルネットワーク(NN)モデルにおける個々の公正性を検証するためのFairifyを提案する。
提案手法は入力分割を採用し,各パーティション毎にNNをプルークし,公平性検証や反例を提供する。
4つの異なるソースから収集した25の現実世界のニューラルネットワーク上でFairifyを評価した。
論文 参考訳(メタデータ) (2022-12-08T23:31:06Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Say No to the Discrimination: Learning Fair Graph Neural Networks with
Limited Sensitive Attribute Information [37.90997236795843]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて大きな力を示している。
GNNは、皮膚の色や性別など、保護された機密属性に偏った予測を行う。
高いノード分類精度を維持しつつ,GNNのバイアスを取り除くためにFairGNNを提案する。
論文 参考訳(メタデータ) (2020-09-03T05:17:30Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Bayesian x-vector: Bayesian Neural Network based x-vector System for
Speaker Verification [71.45033077934723]
我々はディープニューラルネットワーク(DNN)xベクトル話者検証システムにベイズニューラルネットワーク(BNN)を組み込む。
BNNによって提供される重みの不確実性モデリングにより、システムは評価データにより良い一般化を期待できる。
その結果、BNNの相対的なEERの2.66%と2.32%の減少により、短文と短文のドメイン評価が可能であることが判明した。
論文 参考訳(メタデータ) (2020-04-08T14:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。