論文の概要: Individual Fairness Guarantees for Neural Networks
- arxiv url: http://arxiv.org/abs/2205.05763v1
- Date: Wed, 11 May 2022 20:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 03:58:22.275382
- Title: Individual Fairness Guarantees for Neural Networks
- Title(参考訳): ニューラルネットワークに対する個別公平性保証
- Authors: Elias Benussi (1), Andrea Patane (1), Matthew Wicker (1), Luca
Laurenti (2) and Marta Kwiatkowska (1) ((1) University of Oxford, (2) TU
Delft)
- Abstract要約: 我々は、フィードフォワードニューラルネットワーク(NN)の個人公正性(IF)を認定する問題を考える。
我々は$epsilon$-$delta$-IF の定式化に取り組んでおり、$epsilon$-similar の任意のペア間の出力差は最大決定耐性によって制限される。
この定式化は、NN損失を変更することで、トレーニング時のモデルの公平性を促進するためにどのように使用できるかを示し、我々のアプローチが最先端の手法よりもはるかに公平なNNを生成することを実証的に確認する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of certifying the individual fairness (IF) of
feed-forward neural networks (NNs). In particular, we work with the
$\epsilon$-$\delta$-IF formulation, which, given a NN and a similarity metric
learnt from data, requires that the output difference between any pair of
$\epsilon$-similar individuals is bounded by a maximum decision tolerance
$\delta \geq 0$. Working with a range of metrics, including the Mahalanobis
distance, we propose a method to overapproximate the resulting optimisation
problem using piecewise-linear functions to lower and upper bound the NN's
non-linearities globally over the input space. We encode this computation as
the solution of a Mixed-Integer Linear Programming problem and demonstrate that
it can be used to compute IF guarantees on four datasets widely used for
fairness benchmarking. We show how this formulation can be used to encourage
models' fairness at training time by modifying the NN loss, and empirically
confirm our approach yields NNs that are orders of magnitude fairer than
state-of-the-art methods.
- Abstract(参考訳): フィードフォワードニューラルネットワーク(NN)の個々人の公正性(IF)を認証する問題を考察する。
特に、$\epsilon$-$\delta$-if の定式化は、nn とデータから学習した類似度メトリックが与えられたとき、任意の$\epsilon$類似の個人間の出力の差が最大決定許容値 $\delta \geq 0$ によって制限されることを要求する。
マハラノビス距離を含む様々な指標を用いて、nnの非線形性を入力空間上でグローバルに下・上限に分割線形関数を用いて最適化問題を近似する手法を提案する。
我々は、この計算を混合整数線形計画問題の解としてエンコードし、フェアネスベンチマークに広く用いられている4つのデータセット上でIF保証を計算するのに使用できることを示した。
この定式化は、NN損失を変更することで、トレーニング時のモデルの公平性を促進できることを示すとともに、我々のアプローチが最先端の手法よりもはるかに公平なNNを生成することを実証的に確認する。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - A multiobjective continuation method to compute the regularization path of deep neural networks [1.3654846342364308]
数値効率を保証し、モデルの解釈性を改善し、堅牢性を向上させるため、ディープニューラルネットワーク(DNN)では、スパシティは高い特徴である。
本稿では,数百万のパラメータを持つ高次元勾配に対して,上述の目的に対するスパースフロント全体を極めて効率的な方法で実現するアルゴリズムを提案する。
正規化パスの知識がネットワークパラメトリゼーションを十分に一般化することを示す。
論文 参考訳(メタデータ) (2023-08-23T10:08:52Z) - Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Individual Fairness in Bayesian Neural Networks [9.386341375741225]
ベイズニューラルネットワーク(BNN)における個人公正性(IF)について検討する。
我々は、入力空間上の統計的サンプリングと、逆数と個人フェアネスの関係に関するバウンダリを用いて、$epsilon$-$delta$-IFのロバストネス推定のためのフレームワークを導出する。
近似ベイズ推定により訓練されたBNNは、決定論的推定よりも明らかに個々に公平である傾向にある。
論文 参考訳(メタデータ) (2023-04-21T09:12:14Z) - Constraining cosmological parameters from N-body simulations with
Variational Bayesian Neural Networks [0.0]
乗法正規化フロー (MNFs) はBNNのパラメータの近似後流の族である。
我々は,標準BNNとフリップアウト推定器についてMNFの比較を行った。
MNFは、変動近似によって導入されたバイアスを緩和する真の後部へのより現実的な予測分布を提供する。
論文 参考訳(メタデータ) (2023-01-09T16:07:48Z) - Log-based Sparse Nonnegative Matrix Factorization for Data
Representation [55.72494900138061]
非負の行列因子化(NMF)は、非負のデータを部品ベースの表現で表すことの有効性から、近年広く研究されている。
そこで本研究では,係数行列に対数ノルムを課した新しいNMF法を提案する。
提案手法のロバスト性を高めるために,$ell_2,log$-(pseudo) ノルムを新たに提案した。
論文 参考訳(メタデータ) (2022-04-22T11:38:10Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - Neural Optimization Kernel: Towards Robust Deep Learning [13.147925376013129]
近年の研究では、ニューラルネットワーク(NN)とカーネルメソッドの関連性が示されている。
本稿では,カーネル(NOK)という新しいカーネルファミリーを提案する。
パラメータ化ディープNN(NOK)は,経験的リスクを低減し,有界一般化を同時に低減できることを示す。
論文 参考訳(メタデータ) (2021-06-11T00:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。