論文の概要: Fairness under Covariate Shift: Improving Fairness-Accuracy tradeoff
with few Unlabeled Test Samples
- arxiv url: http://arxiv.org/abs/2310.07535v3
- Date: Mon, 8 Jan 2024 09:54:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 22:50:09.180159
- Title: Fairness under Covariate Shift: Improving Fairness-Accuracy tradeoff
with few Unlabeled Test Samples
- Title(参考訳): 共変量シフトによるフェアネス: 未ラベルテストサンプルの少ないフェアネス精度トレードオフの改善
- Authors: Shreyas Havaldar, Jatin Chauhan, Karthikeyan Shanmugam, Jay Nandy,
Aravindan Raghuveer
- Abstract要約: 我々は、ラベル付きトレーニングセットとともに、ラベル付きテストサンプルの小さなセットのみが利用可能である教師なしのシステムで運用する。
我々は、損失定式化による最適化が、最先端のベースラインよりも優れていることを実験的に検証した。
提案手法は, それらの性能を著しく上回ることを示す。
- 参考スコア(独自算出の注目度): 21.144077993862652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Covariate shift in the test data is a common practical phenomena that can
significantly downgrade both the accuracy and the fairness performance of the
model. Ensuring fairness across different sensitive groups under covariate
shift is of paramount importance due to societal implications like criminal
justice. We operate in the unsupervised regime where only a small set of
unlabeled test samples along with a labeled training set is available. Towards
improving fairness under this highly challenging yet realistic scenario, we
make three contributions. First is a novel composite weighted entropy based
objective for prediction accuracy which is optimized along with a
representation matching loss for fairness. We experimentally verify that
optimizing with our loss formulation outperforms a number of state-of-the-art
baselines in the pareto sense with respect to the fairness-accuracy tradeoff on
several standard datasets. Our second contribution is a new setting we term
Asymmetric Covariate Shift that, to the best of our knowledge, has not been
studied before. Asymmetric covariate shift occurs when distribution of
covariates of one group shifts significantly compared to the other groups and
this happens when a dominant group is over-represented. While this setting is
extremely challenging for current baselines, We show that our proposed method
significantly outperforms them. Our third contribution is theoretical, where we
show that our weighted entropy term along with prediction loss on the training
set approximates test loss under covariate shift. Empirically and through
formal sample complexity bounds, we show that this approximation to the unseen
test loss does not depend on importance sampling variance which affects many
other baselines.
- Abstract(参考訳): テストデータの共変量シフトは、モデルの精度と公平性の両方を著しく低下させることができる一般的な実用的な現象である。
共変量シフトの下での異なるセンシティブなグループ間の公平性の確保は、刑事司法のような社会的意味から最も重要である。
ラベル付きトレーニングセットとともに、ラベル付きテストサンプルの小さなセットのみが利用可能である教師なしのシステムで運用します。
この非常に挑戦的で現実的なシナリオの下で公平性を改善するために、私たちは3つの貢献をします。
まず,新しい複合重み付きエントロピーに基づく予測精度を目標とし,フェアネスの表現マッチング損失を最適化した。
我々は、いくつかの標準データセットの公平性・正確性トレードオフに関して、損失定式化による最適化がパレート意味で多くの最先端ベースラインを上回っていることを実験的に検証する。
第二の貢献は、Asymmetric Covariate Shift(非対称共変量シフト)という新しい設定である。
非対称共変量シフト (asymmetric covariate shift) は、ある群の共変量の分布が他の群に比べて著しく変化し、支配的な群が過剰に表現されたときに起こる。
この設定は現在のベースラインでは極めて困難であるが,提案手法がベースラインを大きく上回っていることを示す。
第3の貢献は理論であり、トレーニングセットにおける予測損失と重み付きエントロピー項が共変量シフトの下でのテスト損失を近似することを示す。
経験的および形式的サンプル複雑性境界により、この未知のテスト損失に対する近似は、他の多くのベースラインに影響を及ぼす重要サンプリング分散に依存しないことを示す。
関連論文リスト
- RegMixup: Mixup as a Regularizer Can Surprisingly Improve Accuracy and
Out Distribution Robustness [94.69774317059122]
学習目的として使うのではなく、標準のクロスエントロピー損失に対する追加の正則化剤として利用すれば、良好なミックスアップの有効性がさらに向上できることが示される。
この単純な変更は、精度を大幅に改善するだけでなく、Mixupの予測不確実性推定の品質を大幅に改善する。
論文 参考訳(メタデータ) (2022-06-29T09:44:33Z) - Ensembling over Classifiers: a Bias-Variance Perspective [13.006468721874372]
Pfau (2013) による偏差分解の拡張の上に構築し, 分類器のアンサンブルの挙動に関する重要な知見を得る。
条件付き推定は必然的に既約誤差を生じさせることを示す。
経験的に、標準的なアンサンブルはバイアスを減少させ、この予期せぬ減少のために、分類器のアンサンブルがうまく機能するかもしれないという仮説を立てる。
論文 参考訳(メタデータ) (2022-06-21T17:46:35Z) - Covariate Shift in High-Dimensional Random Feature Regression [44.13449065077103]
共変量シフトは、堅牢な機械学習モデルの開発において重要な障害である。
現代の機械学習の文脈における理論的理解を示す。
論文 参考訳(メタデータ) (2021-11-16T05:23:28Z) - Selective Regression Under Fairness Criteria [30.672082160544996]
少数派集団のパフォーマンスは、カバー範囲を減らしながら低下する場合もある。
満足度基準を満たす特徴を構築できれば、そのような望ましくない行動は避けられることを示す。
論文 参考訳(メタデータ) (2021-10-28T19:05:12Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Fair Regression under Sample Selection Bias [45.41696144835412]
サンプル選択バイアス下での公正回帰のためのフレームワークを開発する。
我々のフレームワークは、バイアス補正とラグランジュ双対性のために古典的なヘックマンモデルを採用している。
実世界の3つのデータセットで実験を行い、実験結果からアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2021-10-08T20:35:12Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - On Mixup Regularization [16.748910388577308]
Mixupは、トレーニングポイントとラベルの凸組み合わせとして新しい例を作成するデータ拡張テクニックである。
そこで本研究では、Mixupの新しい解釈のランダムな摂動が、複数の既知の正規化スキームを誘導することを示す。
論文 参考訳(メタデータ) (2020-06-10T20:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。