論文の概要: Probabilistic Verification of Neural Networks Against Group Fairness
- arxiv url: http://arxiv.org/abs/2107.08362v1
- Date: Sun, 18 Jul 2021 04:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 15:08:37.942941
- Title: Probabilistic Verification of Neural Networks Against Group Fairness
- Title(参考訳): グループフェアネスに対するニューラルネットワークの確率的検証
- Authors: Bing Sun, Jun Sun, Ting Dai, Lijun Zhang
- Abstract要約: 本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
- 参考スコア(独自算出の注目度): 21.158245095699456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness is crucial for neural networks which are used in applications with
important societal implication. Recently, there have been multiple attempts on
improving fairness of neural networks, with a focus on fairness testing (e.g.,
generating individual discriminatory instances) and fairness training (e.g.,
enhancing fairness through augmented training). In this work, we propose an
approach to formally verify neural networks against fairness, with a focus on
independence-based fairness such as group fairness. Our method is built upon an
approach for learning Markov Chains from a user-provided neural network (i.e.,
a feed-forward neural network or a recurrent neural network) which is
guaranteed to facilitate sound analysis. The learned Markov Chain not only
allows us to verify (with Probably Approximate Correctness guarantee) whether
the neural network is fair or not, but also facilities sensitivity analysis
which helps to understand why fairness is violated. We demonstrate that with
our analysis results, the neural weights can be optimized to improve fairness.
Our approach has been evaluated with multiple models trained on benchmark
datasets and the experiment results show that our approach is effective and
efficient.
- Abstract(参考訳): フェアネスは、重要な社会的意味を持つアプリケーションで使用されるニューラルネットワークにとって重要である。
近年、ニューラルネットワークの公正性を改善するための複数の試みがあり、公正性テスト(例えば、個々の識別インスタンスの生成)と公正性トレーニング(例えば、強化トレーニングによる公正性の向上)に焦点を当てている。
本研究では,グループフェアネスのような独立性に基づく公平性に着目し,公平性に対するニューラルネットワークの形式的検証手法を提案する。
提案手法は,音声解析を容易にするために保証される,ユーザが提供するニューラルネットワーク(フィードフォワードニューラルネットワークやリカレントニューラルネットワーク)からマルコフ連鎖を学習するためのアプローチに基づいている。
学習したMarkov Chainは、ニューラルネットワークが公正かどうかの検証(おそらく近似正当性を保証する)を可能にするだけでなく、公正性に違反する理由を理解するための施設感度分析も可能にする。
分析結果から,神経重みは公平性を改善するために最適化できることを実証する。
ベンチマークデータセットでトレーニングされた複数のモデルを用いて評価を行い,実験結果から,本手法は効率的かつ効率的であることが判明した。
関連論文リスト
- Last-Layer Fairness Fine-tuning is Simple and Effective for Neural
Networks [36.182644157139144]
我々は、公正なニューラルネットワークを効率的かつ安価に訓練するためのフレームワークを開発する。
最後の層微細チューニングだけでは、ディープニューラルネットワークの公平性を効果的に促進できる。
論文 参考訳(メタデータ) (2023-04-08T06:49:15Z) - Fairify: Fairness Verification of Neural Networks [7.673007415383724]
ニューラルネットワーク(NN)モデルにおける個々の公正性を検証するためのFairifyを提案する。
提案手法は入力分割を採用し,各パーティション毎にNNをプルークし,公平性検証や反例を提供する。
4つの異なるソースから収集した25の現実世界のニューラルネットワーク上でFairifyを評価した。
論文 参考訳(メタデータ) (2022-12-08T23:31:06Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - FaiR-N: Fair and Robust Neural Networks for Structured Data [10.14835182649819]
決定境界に対するデータポイントの距離を考慮したニューラルネットワークのトレーニングのための新しい定式化を提案する。
この損失でトレーニングすることで、トレーニングなしでトレーニングされたモデルと同じような精度で、より公平で堅牢なニューラルネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-10-13T01:53:15Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。