論文の概要: Individual Fairness in Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2304.10828v1
- Date: Fri, 21 Apr 2023 09:12:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:20:46.881640
- Title: Individual Fairness in Bayesian Neural Networks
- Title(参考訳): ベイズ型ニューラルネットワークにおける個性公平性
- Authors: Alice Doherty, Matthew Wicker, Luca Laurenti, Andrea Patane
- Abstract要約: ベイズニューラルネットワーク(BNN)における個人公正性(IF)について検討する。
我々は、入力空間上の統計的サンプリングと、逆数と個人フェアネスの関係に関するバウンダリを用いて、$epsilon$-$delta$-IFのロバストネス推定のためのフレームワークを導出する。
近似ベイズ推定により訓練されたBNNは、決定論的推定よりも明らかに個々に公平である傾向にある。
- 参考スコア(独自算出の注目度): 9.386341375741225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study Individual Fairness (IF) for Bayesian neural networks (BNNs).
Specifically, we consider the $\epsilon$-$\delta$-individual fairness notion,
which requires that, for any pair of input points that are $\epsilon$-similar
according to a given similarity metrics, the output of the BNN is within a
given tolerance $\delta>0.$ We leverage bounds on statistical sampling over the
input space and the relationship between adversarial robustness and individual
fairness to derive a framework for the systematic estimation of
$\epsilon$-$\delta$-IF, designing Fair-FGSM and Fair-PGD as
global,fairness-aware extensions to gradient-based attacks for BNNs. We
empirically study IF of a variety of approximately inferred BNNs with different
architectures on fairness benchmarks, and compare against deterministic models
learnt using frequentist techniques. Interestingly, we find that BNNs trained
by means of approximate Bayesian inference consistently tend to be markedly
more individually fair than their deterministic counterparts.
- Abstract(参考訳): ベイズニューラルネットワーク(BNN)における個人公正性(IF)について検討する。
Specifically, we consider the $\epsilon$-$\delta$-individual fairness notion, which requires that, for any pair of input points that are $\epsilon$-similar according to a given similarity metrics, the output of the BNN is within a given tolerance $\delta>0.$ We leverage bounds on statistical sampling over the input space and the relationship between adversarial robustness and individual fairness to derive a framework for the systematic estimation of $\epsilon$-$\delta$-IF, designing Fair-FGSM and Fair-PGD as global,fairness-aware extensions to gradient-based attacks for BNNs.
フェアネスベンチマークにおいて,様々なアーキテクチャを持つ近似BNNのIFを実験的に検討し,頻繁な手法を用いて学習した決定論的モデルと比較した。
興味深いことに、近似ベイズ推論によって訓練されたbnnは、決定論的な比較よりも明らかに個々に公平である傾向がある。
関連論文リスト
- Adversarial Robustness Certification for Bayesian Neural Networks [22.71265211510824]
逆入力摂動に対するベイズニューラルネットワーク(BNN)の計算の堅牢性検証問題について検討する。
本フレームワークは, 重み付け, 積分, および有界伝搬技術に基づいており, 多数のパラメータを持つBNNに適用可能である。
論文 参考訳(メタデータ) (2023-06-23T16:58:25Z) - Constraining cosmological parameters from N-body simulations with
Variational Bayesian Neural Networks [0.0]
乗法正規化フロー (MNFs) はBNNのパラメータの近似後流の族である。
我々は,標準BNNとフリップアウト推定器についてMNFの比較を行った。
MNFは、変動近似によって導入されたバイアスを緩和する真の後部へのより現実的な予測分布を提供する。
論文 参考訳(メタデータ) (2023-01-09T16:07:48Z) - Explicit Tradeoffs between Adversarial and Natural Distributional
Robustness [48.44639585732391]
実際、モデルは信頼性を確保するために両方のタイプの堅牢さを享受する必要があります。
本研究では, 対角線と自然分布の強靭性の間には, 明らかなトレードオフが存在することを示す。
論文 参考訳(メタデータ) (2022-09-15T19:58:01Z) - Individual Fairness Guarantees for Neural Networks [0.0]
我々は、フィードフォワードニューラルネットワーク(NN)の個人公正性(IF)を認定する問題を考える。
我々は$epsilon$-$delta$-IF の定式化に取り組んでおり、$epsilon$-similar の任意のペア間の出力差は最大決定耐性によって制限される。
この定式化は、NN損失を変更することで、トレーニング時のモデルの公平性を促進するためにどのように使用できるかを示し、我々のアプローチが最先端の手法よりもはるかに公平なNNを生成することを実証的に確認する。
論文 参考訳(メタデータ) (2022-05-11T20:21:07Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Model Architecture Adaption for Bayesian Neural Networks [9.978961706999833]
我々はBNNを精度と不確実性の両方に最適化する新しいネットワークアーキテクチャサーチ(NAS)を示す。
我々の実験では,探索されたモデルでは,最先端(ディープアンサンブル)と比較して,不確実性と精度が比較できる。
論文 参考訳(メタデータ) (2022-02-09T10:58:50Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。