論文の概要: MAFT: Efficient Model-Agnostic Fairness Testing for Deep Neural Networks via Zero-Order Gradient Search
- arxiv url: http://arxiv.org/abs/2412.20086v1
- Date: Sat, 28 Dec 2024 09:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:07:52.501502
- Title: MAFT: Efficient Model-Agnostic Fairness Testing for Deep Neural Networks via Zero-Order Gradient Search
- Title(参考訳): MAFT:ゼロ次勾配探索によるディープニューラルネットワークの効率的モデル非依存フェアネステスト
- Authors: Zhaohui Wang, Min Zhang, Jingran Yang, Bojie Shao, Min Zhang,
- Abstract要約: モデル非依存フェアネステスト(MAFT)と呼ばれる新しいブラックボックス個別フェアネステスト法を提案する。
我々は,MAFTが大規模ネットワークへの適用性を向上しつつ,最先端のホワイトボックス手法と同等の有効性を実証した。
- 参考スコア(独自算出の注目度): 20.48306648223519
- License:
- Abstract: Deep neural networks (DNNs) have shown powerful performance in various applications and are increasingly being used in decision-making systems. However, concerns about fairness in DNNs always persist. Some efficient white-box fairness testing methods about individual fairness have been proposed. Nevertheless, the development of black-box methods has stagnated, and the performance of existing methods is far behind that of white-box methods. In this paper, we propose a novel black-box individual fairness testing method called Model-Agnostic Fairness Testing (MAFT). By leveraging MAFT, practitioners can effectively identify and address discrimination in DL models, regardless of the specific algorithm or architecture employed. Our approach adopts lightweight procedures such as gradient estimation and attribute perturbation rather than non-trivial procedures like symbol execution, rendering it significantly more scalable and applicable than existing methods. We demonstrate that MAFT achieves the same effectiveness as state-of-the-art white-box methods whilst improving the applicability to large-scale networks. Compared to existing black-box approaches, our approach demonstrates distinguished performance in discovering fairness violations w.r.t effectiveness (approximately 14.69 times) and efficiency (approximately 32.58 times).
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、さまざまなアプリケーションで強力なパフォーマンスを示し、意思決定システムでますます利用されている。
しかし、DNNの公平性に関する懸念は常に持続している。
個々人の公平性に関する効率的なホワイトボックスフェアネス試験法が提案されている。
それでもブラックボックスメソッドの開発は停滞しており、既存のメソッドのパフォーマンスはホワイトボックスメソッドよりもはるかに遅れている。
本稿では,MAFT(Model-Agnostic Fairness Testing)と呼ばれる新しいブラックボックス個別公正テスト手法を提案する。
MAFTを利用することで、実践者は特定のアルゴリズムやアーキテクチャに関係なく、DLモデルの識別と対処を効果的に行うことができる。
提案手法では,シンボル実行のような非自明な手順ではなく,勾配推定や属性摂動といった軽量な手順を採用し,既存の手法よりもはるかにスケーラブルで適用可能である。
我々は,MAFTが大規模ネットワークへの適用性を向上しつつ,最先端のホワイトボックス手法と同等の有効性を実証した。
既存のブラックボックスアプローチと比較して, フェアネス違反(約14.69倍)と効率(約32.58倍)の発見に際し, 優れた性能を示す。
関連論文リスト
- Robust Analysis of Multi-Task Learning Efficiency: New Benchmarks on Light-Weighed Backbones and Effective Measurement of Multi-Task Learning Challenges by Feature Disentanglement [69.51496713076253]
本稿では,既存のMTL手法の効率性に焦点をあてる。
バックボーンを小さくしたメソッドの大規模な実験と,MetaGraspNetデータセットを新しいテストグラウンドとして実施する。
また,MTLにおける課題の新規かつ効率的な識別子として,特徴分散尺度を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - MFABA: A More Faithful and Accelerated Boundary-based Attribution Method
for Deep Neural Networks [69.28125286491502]
我々は,公理に固執する帰属アルゴリズムであるMFABAを紹介する。
結果は、最先端の属性アルゴリズムよりも101.5142倍高速に達成することで、その優位性を証明している。
論文 参考訳(メタデータ) (2023-12-21T07:48:15Z) - Saliency strikes back: How filtering out high frequencies improves white-box explanations [15.328499301244708]
ホワイトボックス」法は、高周波アーティファクトによってしばしば汚染される勾配信号に依存する。
この制限を克服するために、"FORGrad"と呼ばれる新しいアプローチを導入します。
以上の結果から,ForceGradは既存のホワイトボックスメソッドの性能を継続的に向上させることがわかった。
論文 参考訳(メタデータ) (2023-07-18T19:56:20Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - Adaptive Fairness Improvement Based on Causality Analysis [5.827653543633839]
識別ニューラルネットワークが与えられた場合、公平性向上の問題は、その性能を著しく損なうことなく、系統的に差別を減らすことである。
本稿では,因果分析に基づくフェアネス改善手法を適応的に選択する手法を提案する。
我々のアプローチは効果的(すなわち、常に最良の公正性を改善する方法を特定する)で効率的(すなわち平均時間オーバーヘッドが5分)である。
論文 参考訳(メタデータ) (2022-09-15T10:05:31Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Towards Better Understanding Attribution Methods [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
また,いくつかの属性法の性能を著しく向上する処理後平滑化ステップを提案する。
論文 参考訳(メタデータ) (2022-05-20T20:50:17Z) - Automatic Fairness Testing of Neural Classifiers through Adversarial
Sampling [8.2868128804393]
本稿では,識別サンプルを体系的に検索するスケーラブルで効果的な手法を提案する。
最先端の手法と比較して、我々の手法は勾配計算やクラスタリングのような軽量な手法のみを用いる。
再訓練されたモデルは、それぞれ平均57.2%と60.2%の差別を減少させる。
論文 参考訳(メタデータ) (2021-07-17T03:47:08Z) - Black-box Adversarial Sample Generation Based on Differential Evolution [18.82850158275813]
我々は、ディープニューラルネットワーク(DNN)の堅牢性をテストするブラックボックス手法を提案する。
この手法はターゲットDNNの構造や重量に関する知識を一切必要としない。
実験結果から,本手法は逆検体の生成に100%成功し,誤分類を誘発できることが示唆された。
論文 参考訳(メタデータ) (2020-07-30T08:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。