論文の概要: Certification of Distributional Individual Fairness
- arxiv url: http://arxiv.org/abs/2311.11911v1
- Date: Mon, 20 Nov 2023 16:41:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 17:51:27.920163
- Title: Certification of Distributional Individual Fairness
- Title(参考訳): 配当個人公平性の認定
- Authors: Matthew Wicker, Vihari Piratia, and Adrian Weller
- Abstract要約: ニューラルネットワークの個別公正(IF)証明書を提供する。
提案手法は,従来の研究よりも数ダースも大きいニューラルネットワークの認証を可能にする。
- 参考スコア(独自算出の注目度): 41.65399122566472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing formal guarantees of algorithmic fairness is of paramount
importance to socially responsible deployment of machine learning algorithms.
In this work, we study formal guarantees, i.e., certificates, for individual
fairness (IF) of neural networks. We start by introducing a novel convex
approximation of IF constraints that exponentially decreases the computational
cost of providing formal guarantees of local individual fairness. We highlight
that prior methods are constrained by their focus on global IF certification
and can therefore only scale to models with a few dozen hidden neurons, thus
limiting their practical impact. We propose to certify distributional
individual fairness which ensures that for a given empirical distribution and
all distributions within a $\gamma$-Wasserstein ball, the neural network has
guaranteed individually fair predictions. Leveraging developments in
quasi-convex optimization, we provide novel and efficient certified bounds on
distributional individual fairness and show that our method allows us to
certify and regularize neural networks that are several orders of magnitude
larger than those considered by prior works. Moreover, we study real-world
distribution shifts and find our bounds to be a scalable, practical, and sound
source of IF guarantees.
- Abstract(参考訳): アルゴリズムフェアネスの正式な保証を提供することは、社会的に責任を負う機械学習アルゴリズムの展開において最重要となる。
本研究は,ニューラルネットワークの個人公正性(IF)に関する公式な保証,すなわち証明について検討する。
まず,局所的公正性を保証するための計算コストを指数関数的に削減する,IF制約の新たな凸近似を導入する。
従来の手法はグローバルIF認証に重点を置いているため、数十個の隠されたニューロンを持つモデルにしかスケールできないため、実際の影響を抑えることができる。
本稿では,与えられた経験分布と,$\gamma$-Wassersteinボール内のすべての分布に対して,ニューラルネットワークが個別に公正な予測を保証していることを示す。
準凸最適化の進歩を生かして、分布的個性に関する新規かつ効率的な証明付き境界を提供し、本手法が従来の研究よりも数桁大きいニューラルネットワークの認証と正則化を可能にすることを示す。
さらに,実世界の分布変化について検討し,IF保証のスケーラブルで実用的で健全な情報源であることを示す。
関連論文リスト
- FairQuant: Certifying and Quantifying Fairness of Deep Neural Networks [6.22084835644296]
本稿では,ディープニューラルネットワーク(DNN)の個人的公正性を正式に証明し,定量化する手法を提案する。
個人的公正性は、法的に保護された属性(例えば、性別や人種)を除いて同一の2つの個人が同じ処置を受けることを保証している。
提案手法を実装し,4つの人気フェアネス研究データセットを用いて評価した。
論文 参考訳(メタデータ) (2024-09-05T03:36:05Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - f-FERM: A Scalable Framework for Robust Fair Empirical Risk Minimization [9.591164070876689]
本稿では、f-divergence measures(f-FERM)に基づく公正な経験的リスクに対する統一的な最適化フレームワークを提案する。
さらに,f-FERMによるほぼ全てのバッチサイズに対するフェアネス・精度トレードオフの優位性を実証した。
我々の拡張は、不確実集合として$L_p$ノルムの下で f-FERM の目的を分布的に頑健に最適化する手法に基づいている。
論文 参考訳(メタデータ) (2023-12-06T03:14:16Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Certifying Some Distributional Fairness with Subpopulation Decomposition [20.009388617013986]
まず、最適化問題として、与えられたデータ分布に基づいて訓練されたMLモデルの正当性を定式化する。
次に、一般的な公平性認定フレームワークを提案し、センシティブなシフトと一般的なシフトの両方のシナリオでインスタンス化する。
我々のフレームワークは、追加の非スキューネス制約を統合する柔軟性があり、異なる実世界のシナリオ下でさらに厳密な認証を提供することを示す。
論文 参考訳(メタデータ) (2022-05-31T01:17:50Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Data Dependent Randomized Smoothing [127.34833801660233]
データ依存フレームワークは、3つのランダムな平滑化アプローチにシームレスに組み込むことができます。
CIFAR10とImageNetで0.5の半径の最強ベースラインの認定精度よりも9%と6%の改善が得られています。
論文 参考訳(メタデータ) (2020-12-08T10:53:11Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。