論文の概要: Input-agnostic Certified Group Fairness via Gaussian Parameter Smoothing
- arxiv url: http://arxiv.org/abs/2206.11423v1
- Date: Wed, 22 Jun 2022 23:39:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 14:10:28.063328
- Title: Input-agnostic Certified Group Fairness via Gaussian Parameter Smoothing
- Title(参考訳): ガウスパラメータ平滑化による入力非依存認定グループフェアネス
- Authors: Jiayin Jin, Zeru Zhang, Yang Zhou, and Lingfei Wu
- Abstract要約: 本稿では,分類モデルの公平性を改善するために,入力に依存しないグループフェアネスアルゴリズムであるFairSmoothを提案する。
理論的には、滑らかな多様体は入力データの領域に依存しない大域リプシッツ定数を持つ。
- 参考スコア(独自算出の注目度): 33.954959915714674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Only recently, researchers attempt to provide classification algorithms with
provable group fairness guarantees. Most of these algorithms suffer from
harassment caused by the requirement that the training and deployment data
follow the same distribution. This paper proposes an input-agnostic certified
group fairness algorithm, FairSmooth, for improving the fairness of
classification models while maintaining the remarkable prediction accuracy. A
Gaussian parameter smoothing method is developed to transform base classifiers
into their smooth versions. An optimal individual smooth classifier is learnt
for each group with only the data regarding the group and an overall smooth
classifier for all groups is generated by averaging the parameters of all the
individual smooth ones. By leveraging the theory of nonlinear functional
analysis, the smooth classifiers are reformulated as output functions of a
Nemytskii operator. Theoretical analysis is conducted to derive that the
Nemytskii operator is smooth and induces a Frechet differentiable smooth
manifold. We theoretically demonstrate that the smooth manifold has a global
Lipschitz constant that is independent of the domain of the input data, which
derives the input-agnostic certified group fairness.
- Abstract(参考訳): つい最近になって、研究者は証明可能なグループフェアネス保証を備えた分類アルゴリズムの提供を試みた。
これらのアルゴリズムのほとんどは、トレーニングデータとデプロイメントデータが同じ分布に従うという要求によって、ハラスメントに悩まされる。
本稿では,予測精度を維持しつつ分類モデルの公平性を向上させるために,入力非依存なグループフェアネスアルゴリズムfairsmoothを提案する。
基本分類器をスムーズなバージョンに変換するためにガウスパラメータ平滑化法を開発した。
グループに関するデータのみを有する各グループに対して最適な個別の滑らかな分類器を学習し、各個別の滑らかなパラメータを平均化することにより、すべてのグループに対する全体的な滑らかな分類器を生成する。
非線形汎函数解析の理論を活用することにより、滑らかな分類器はネミツキイ作用素の出力関数として再構成される。
理論解析により、ネミトスキー作用素は滑らかであり、フレシェ微分可能滑らかな多様体を誘導する。
理論的には、滑らかな多様体は入力データの領域に依存しない大域的なリプシッツ定数を持ち、入力非依存な認定群フェアネスを導出する。
関連論文リスト
- The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - Understanding Noise-Augmented Training for Randomized Smoothing [14.061680807550722]
ランダムスムーシング(Randomized smoothing)は、敵攻撃に対する証明可能な堅牢性を保証する技術である。
より強い分布仮定を作らずに、雑音増強の訓練を受けた予測者から利益を期待できないことを示す。
本分析は, ランダム化平滑化の実践的展開に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-05-08T14:46:34Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z) - Data Dependent Randomized Smoothing [127.34833801660233]
データ依存フレームワークは、3つのランダムな平滑化アプローチにシームレスに組み込むことができます。
CIFAR10とImageNetで0.5の半径の最強ベースラインの認定精度よりも9%と6%の改善が得られています。
論文 参考訳(メタデータ) (2020-12-08T10:53:11Z) - Posterior Re-calibration for Imbalanced Datasets [33.379680556475314]
トレーニングラベルの分布が極めて不均衡な場合、ニューラルネットワークは性能が良くない。
我々は、KL分割に基づく最適化によって解決できる訓練後の事前バランス手法を導出する。
6つの異なるデータセットと5つの異なるアーキテクチャで得られた結果は、芸術的正確性を示している。
論文 参考訳(メタデータ) (2020-10-22T15:57:14Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。