論文の概要: Fair Regression under Sample Selection Bias
- arxiv url: http://arxiv.org/abs/2110.04372v1
- Date: Fri, 8 Oct 2021 20:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 08:29:13.411898
- Title: Fair Regression under Sample Selection Bias
- Title(参考訳): サンプル選択バイアス下での公平回帰
- Authors: Wei Du, Xintao Wu, Hanghang Tong
- Abstract要約: サンプル選択バイアス下での公正回帰のためのフレームワークを開発する。
我々のフレームワークは、バイアス補正とラグランジュ双対性のために古典的なヘックマンモデルを採用している。
実世界の3つのデータセットで実験を行い、実験結果からアプローチの有効性を実証した。
- 参考スコア(独自算出の注目度): 45.41696144835412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research on fair regression focused on developing new fairness notions
and approximation methods as target variables and even the sensitive attribute
are continuous in the regression setting. However, all previous fair regression
research assumed the training data and testing data are drawn from the same
distributions. This assumption is often violated in real world due to the
sample selection bias between the training and testing data. In this paper, we
develop a framework for fair regression under sample selection bias when
dependent variable values of a set of samples from the training data are
missing as a result of another hidden process. Our framework adopts the classic
Heckman model for bias correction and the Lagrange duality to achieve fairness
in regression based on a variety of fairness notions. Heckman model describes
the sample selection process and uses a derived variable called the Inverse
Mills Ratio (IMR) to correct sample selection bias. We use fairness inequality
and equality constraints to describe a variety of fairness notions and apply
the Lagrange duality theory to transform the primal problem into the dual
convex optimization. For the two popular fairness notions, mean difference and
mean squared error difference, we derive explicit formulas without iterative
optimization, and for Pearson correlation, we derive its conditions of
achieving strong duality. We conduct experiments on three real-world datasets
and the experimental results demonstrate the approach's effectiveness in terms
of both utility and fairness metrics.
- Abstract(参考訳): 近年のフェアレグレッション研究は, 対象変数としての新たなフェアネスの概念や近似法の開発に焦点をあてており, 感度特性さえも回帰環境で連続している。
しかしながら、以前のすべての公正回帰研究は、トレーニングデータとテストデータが同じ分布から引き出されると仮定した。
この仮定は、トレーニングとテストデータの間のサンプル選択バイアスのために、現実世界でしばしば違反する。
本稿では,別の隠れたプロセスの結果,トレーニングデータからのサンプル集合の依存変数値が失われている場合に,サンプル選択バイアスの下で公平な回帰を行うためのフレームワークを開発した。
我々のフレームワークは、偏見補正のための古典的ヘックマンモデルとラグランジュ双対性を採用し、様々な公正性の概念に基づいて回帰の公平性を達成する。
ヘックマンモデルはサンプル選択過程を記述し、サンプル選択バイアスを補正するために逆ミル比(Inverse Mills Ratio, IMR)と呼ばれる派生変数を使用する。
我々は、フェアネスの不等式と等式制約を用いて、様々なフェアネス概念を記述し、ラグランジュ双対性理論を適用して原始問題を双対凸最適化に変換する。
平均偏差と平均二乗誤差差という2つの一般的なフェアネス概念に対して、反復最適化なしで明示的な公式を導出し、ピアソン相関の場合、強い双対性を達成する条件を導出する。
3つの実世界のデータセットについて実験を行い,実効性指標と公平性指標の両方から,その効果を実証した。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - fAux: Testing Individual Fairness via Gradient Alignment [2.5329739965085785]
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
論文 参考訳(メタデータ) (2022-10-10T21:27:20Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Achieving Equalized Odds by Resampling Sensitive Attributes [13.114114427206678]
等価性の概念をほぼ満足する予測モデルを学習するためのフレキシブルなフレームワークを提案する。
この微分可能な関数は、モデルパラメータを等化奇数に向けて駆動するペナルティとして使用される。
本研究は,予測規則が本性質に反するか否かを検出するための公式な仮説テストを開発する。
論文 参考訳(メタデータ) (2020-06-08T00:18:34Z) - On conditional versus marginal bias in multi-armed bandits [105.07190334523304]
多腕バンディットにおける腕のサンプル平均のバイアスは、適応データ解析において重要な問題である。
サンプル平均を含む報酬の単調関数の条件バイアスの兆候を特徴付ける。
我々の結果は任意の条件付けイベントを保ち、データ収集ポリシーの自然な単調性特性を活用する。
論文 参考訳(メタデータ) (2020-02-19T20:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。