論文の概要: Cauchy-Schwarz Fairness Regularizer
- arxiv url: http://arxiv.org/abs/2512.09467v1
- Date: Wed, 10 Dec 2025 09:39:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.467855
- Title: Cauchy-Schwarz Fairness Regularizer
- Title(参考訳): Cauchy-Schwarz Fairness Regularizer
- Authors: Yezi Liu, Hanning Chen, Wenjun Huang, Yang Ni, Mohsen Imani,
- Abstract要約: 機械学習におけるグループフェアネスは、モデル予測とセンシティブな属性間の依存を減らす正規化子を追加することで強制されることが多い。
感性群に条件付けられた予測分布間の経験的CSのばらつきを罰するコーシー=シュワルツフェアネス正規化器を提案する。
- 参考スコア(独自算出の注目度): 17.898277374771254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Group fairness in machine learning is often enforced by adding a regularizer that reduces the dependence between model predictions and sensitive attributes. However, existing regularizers are built on heterogeneous distance measures and design choices, which makes their behavior hard to reason about and their performance inconsistent across tasks. This raises a basic question: what properties make a good fairness regularizer? We address this question by first organizing existing in-process methods into three families: (i) matching prediction statistics across sensitive groups, (ii) aligning latent representations, and (iii) directly minimizing dependence between predictions and sensitive attributes. Through this lens, we identify desirable properties of the underlying distance measure, including tight generalization bounds, robustness to scale differences, and the ability to handle arbitrary prediction distributions. Motivated by these properties, we propose a Cauchy-Schwarz (CS) fairness regularizer that penalizes the empirical CS divergence between prediction distributions conditioned on sensitive groups. Under a Gaussian comparison, we show that CS divergence yields a tighter bound than Kullback-Leibler divergence, Maximum Mean Discrepancy, and the mean disparity used in Demographic Parity, and we discuss how these advantages translate to a distribution-free, kernel-based estimator that naturally extends to multiple sensitive attributes. Extensive experiments on four tabular benchmarks and one image dataset demonstrate that the proposed CS regularizer consistently improves Demographic Parity and Equal Opportunity metrics while maintaining competitive accuracy, and achieves a more stable utility-fairness trade-off across hyperparameter settings compared to prior regularizers.
- Abstract(参考訳): 機械学習におけるグループフェアネスは、モデル予測とセンシティブな属性間の依存を減らす正規化子を追加することで強制されることが多い。
しかし、既存の正則化器は異種距離測度と設計選択に基づいて構築されており、タスク間での動作の推論や性能の不整合を困難にしている。
これは基本的な疑問を提起する。どのプロパティが良い公正な正規化子を作るのか?
既存のプロセス内メソッドを3つのファミリーにまとめることで、この問題に対処する。
一 センシティブなグループにまたがる予測統計に一致すること。
(二)潜在表現の整合、及び
三 予測と敏感な属性の依存を極力最小化すること。
このレンズを通して、厳密な一般化境界、差分をスケールする堅牢性、任意の予測分布を扱う能力など、基礎となる距離測定の望ましい性質を識別する。
これらの特性を動機として,感性群に条件付き予測分布間の経験的CSばらつきをペナライズするコーシー=シュワルツ(CS)フェアネス正規化器を提案する。
ガウス比較では、CSの発散は、Kullback-Leiblerの発散、最大平均偏差、およびデモグラフィックパリティで使われる平均差よりも厳密であることを示し、これらの利点が分散のないカーネルベースの推定器にどのように変換され、複数の機密属性に自然に拡張されるかについて議論する。
4つのタブ状ベンチマークと1つの画像データセットの大規模な実験により、提案されたCS正規化器は、競争精度を維持しながら、常にデモグラフィックパリティと平等度の測定値を改善し、事前の正規化器と比較して、ハイパーパラメータ設定におけるより安定したユーティリティフェアネストレードオフを実現する。
関連論文リスト
- Optimal Regularization Under Uncertainty: Distributional Robustness and Convexity Constraints [9.77322868877488]
分布的に堅牢な最適正規化のためのフレームワークを導入する。
トレーニング分布の計算と均一な事前計算との間には,ロバストな正則化器がどのように介在するかを示す。
論文 参考訳(メタデータ) (2025-10-03T19:35:38Z) - Probabilistic Scores of Classifiers, Calibration is not Enough [0.32985979395737786]
二項分類タスクでは、確率的予測の正確な表現が実世界の様々な応用に不可欠である。
本研究では,予測スコアと真の確率分布の一致を優先するアプローチを強調した。
その結果,従来の校正基準の限界が明らかとなり,重要な意思決定のための予測モデルの信頼性を損なう可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-06T19:53:00Z) - RobustFair: Adversarial Evaluation through Fairness Confusion Directed
Gradient Search [8.278129731168127]
ディープニューラルネットワーク(DNN)は、様々な敵の摂動に対する脆弱性のため、しばしば課題に直面している。
本稿では, 偽りや偏りのある摂動を受ける場合のDNNの正確な公平性を評価するための新しいアプローチであるRobustFairを紹介する。
論文 参考訳(メタデータ) (2023-05-18T12:07:29Z) - Confidence and Dispersity Speak: Characterising Prediction Matrix for
Unsupervised Accuracy Estimation [51.809741427975105]
この研究は、ラベルを使わずに、分散シフト下でのモデルの性能を評価することを目的としている。
我々は、両方の特性を特徴付けるのに有効であることが示されている核規範を用いる。
核の基準は既存の手法よりも正確で堅牢であることを示す。
論文 参考訳(メタデータ) (2023-02-02T13:30:48Z) - Evaluating Probabilistic Classifiers: The Triptych [62.997667081978825]
本稿では,予測性能の異なる相補的な側面に焦点をあてた診断グラフィックのトリチチを提案し,研究する。
信頼性図は校正に対処し、受信動作特性(ROC)曲線は識別能力を診断し、マーフィー図は全体的な予測性能と価値を視覚化する。
論文 参考訳(メタデータ) (2023-01-25T19:35:23Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Fair Regression with Wasserstein Barycenters [39.818025466204055]
本稿では, 実数値関数を学習し, 実数値関数の制約を満たす問題について検討する。
予測された出力の分布は、センシティブな属性から独立することを要求する。
フェア回帰と最適輸送理論の関連性を確立し、最適なフェア予測器に対するクローズドフォーム表現を導出する。
論文 参考訳(メタデータ) (2020-06-12T16:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。