論文の概要: Information-Theoretic Testing and Debugging of Fairness Defects in Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2304.04199v1
- Date: Sun, 9 Apr 2023 09:16:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 17:11:29.114416
- Title: Information-Theoretic Testing and Debugging of Fairness Defects in Deep
Neural Networks
- Title(参考訳): 深部ニューラルネットワークにおける公正欠陥の情報理論テストとデバッグ
- Authors: Verya Monjezi and Ashutosh Trivedi and Gang Tan and Saeid Tizpaz-Niari
- Abstract要約: ディープフィードフォワードニューラルネットワーク(DNN)は、社会経済的決定支援ソフトウェアシステムにますます導入されている。
本稿では,DNNにおける公平性欠陥の検出とローカライズを行う情報理論テストおよびデバッグフレームワークDICEを提案する。
DICEは識別の量を効率よく特徴付けし、識別インスタンスを効果的に生成し、大きなバイアスを伴うレイヤ/ニューロンをローカライズする。
- 参考スコア(独自算出の注目度): 13.425444923812586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deep feedforward neural networks (DNNs) are increasingly deployed in
socioeconomic critical decision support software systems. DNNs are
exceptionally good at finding minimal, sufficient statistical patterns within
their training data. Consequently, DNNs may learn to encode decisions --
amplifying existing biases or introducing new ones -- that may disadvantage
protected individuals/groups and may stand to violate legal protections. While
the existing search based software testing approaches have been effective in
discovering fairness defects, they do not supplement these defects with
debugging aids -- such as severity and causal explanations -- crucial to help
developers triage and decide on the next course of action. Can we measure the
severity of fairness defects in DNNs? Are these defects symptomatic of improper
training or they merely reflect biases present in the training data? To answer
such questions, we present DICE: an information-theoretic testing and debugging
framework to discover and localize fairness defects in DNNs.
The key goal of DICE is to assist software developers in triaging fairness
defects by ordering them by their severity. Towards this goal, we quantify
fairness in terms of protected information (in bits) used in decision making. A
quantitative view of fairness defects not only helps in ordering these defects,
our empirical evaluation shows that it improves the search efficiency due to
resulting smoothness of the search space. Guided by the quantitative fairness,
we present a causal debugging framework to localize inadequately trained layers
and neurons responsible for fairness defects. Our experiments over ten DNNs,
developed for socially critical tasks, show that DICE efficiently characterizes
the amounts of discrimination, effectively generates discriminatory instances,
and localizes layers/neurons with significant biases.
- Abstract(参考訳): ディープフィードフォワードニューラルネットワーク(DNN)は、社会経済的臨界決定支援ソフトウェアシステムにますます導入されている。
dnnはトレーニングデータの中に最小限の統計パターンを見つけるのに非常に優れている。
結果として、dnnは、保護された個人/グループを不利にし、法的保護に違反する可能性のある、既存のバイアスの増幅や新しいバイアスの導入といった決定をエンコードすることを学ぶことができる。既存の検索ベースのソフトウェアテストアプローチは、公正な欠陥の発見に効果的だが、これらの欠陥を、深刻度や因果説明といったデバッグ支援で補うことは、開発者が次の行動の行方を決めるのに不可欠である。
dnnのフェアネス欠陥の重大度を計測できますか?
これらの欠陥は不適切なトレーニングの症状か、あるいはトレーニングデータに存在するバイアスを単に反映しているか?
そこで我々は,DNNにおける公平性欠陥の発見と局所化を行う情報理論テストおよびデバッグフレームワークであるDICEを提案する。
diceの鍵となる目標は、ソフトウェア開発者が公平な欠陥を深刻度で順序付けすることで対処できるようにすることだ。
この目標に向けて、意思決定に使用される保護された情報(ビット)の観点から公正性を定量化する。
フェアネス欠陥の定量的評価は,これらの欠陥の順序付けに有用であるだけでなく,探索空間の滑らかさによって探索効率が向上することを示す。
定量的フェアネスによって導かれた因果的デバッグの枠組みは,不適切に訓練された層やニューロンがフェアネスの欠陥を負うよう局所化する。
社会的にクリティカルなタスクのために開発された10種類のdnnを用いた実験では、diceが効率的に識別量を特徴付け、効果的に識別インスタンスを生成し、大きなバイアスを持つ層/ニューロンを局在化できることが示されている。
関連論文リスト
- Improved Detection and Diagnosis of Faults in Deep Neural Networks Using Hierarchical and Explainable Classification [3.2623791881739033]
本稿では,DeFaultについて紹介する。Deep Neural Networks (DNN)プログラムの欠陥を検出し診断する新しい手法である。
提案手法は, 実世界のDNNプログラムの検出において94%のリコール, 63%のリコールを達成し, 欠陥の根本原因の診断において, 最先端技術よりも3.92%~11.54%高いパフォーマンスを示した。
論文 参考訳(メタデータ) (2025-01-22T00:55:09Z) - BDefects4NN: A Backdoor Defect Database for Controlled Localization Studies in Neural Networks [65.666913051617]
ローカライゼーション研究のための最初のバックドア欠陥データベースであるBDefects4NNを紹介する。
BDefects4NNは、ラベル付きバックドア欠陥DNNを神経細胞の粒度で提供し、欠陥根の原因の制御された局在化研究を可能にする。
本研究は, バックドア欠陥に対して限られた有効性を示す6つの障害局所化基準と2つの欠陥修復手法の評価実験を行った。
論文 参考訳(メタデータ) (2024-12-01T09:52:48Z) - NeuFair: Neural Network Fairness Repair with Dropout [19.49034966552718]
本稿では,ディープニューラルネットワーク(DNN)における後処理バイアス緩和としてのニューロンのドロップアウトについて検討する。
ランダム化アルゴリズムの設計は, モデルの性能劣化を最小限に抑えつつ, 公平性(最大69%)を向上させるのに効果的であり, 効率的であることを示す。
論文 参考訳(メタデータ) (2024-07-05T05:45:34Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification with Limited Sensitive Information Leakage [1.5438758943381854]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - DeepVigor: Vulnerability Value Ranges and Factors for DNNs' Reliability
Assessment [1.189955933770711]
Deep Neural Networks(DNN)とそのアクセラレータは、安全クリティカルなアプリケーションに頻繁にデプロイされている。
本稿では,DeepVigorと呼ばれる,高精度,微粒化,メトリック指向,アクセラレーションに依存しない新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-13T08:55:10Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Accelerating Robustness Verification of Deep Neural Networks Guided by
Target Labels [8.9960048245668]
ディープニューラルネットワーク(DNN)は、自律運転や医療診断など、多くの安全クリティカルなアプリケーションの主要なコンポーネントとなっている。
DNNは、入力に対する小さな摂動が誤った予測をもたらすような敵の例に感受性があるため、ロバスト性に悩まされる。
本稿では,ロバスト性検証を目標ラベルで導くことによって,ロバスト性検証手法を高速化する手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T00:51:52Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。