論文の概要: Does enforcing fairness mitigate biases caused by subpopulation shift?
- arxiv url: http://arxiv.org/abs/2011.03173v2
- Date: Tue, 26 Oct 2021 20:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 04:23:12.828360
- Title: Does enforcing fairness mitigate biases caused by subpopulation shift?
- Title(参考訳): 人口変動に伴う公平さのバイアスは軽減されるか?
- Authors: Subha Maity, Debarghya Mukherjee, Mikhail Yurochkin and Yuekai Sun
- Abstract要約: 我々は,訓練中のアルゴリズムフェアネスの強制が,訓練対象領域における訓練されたモデルの性能を向上させるか否かを考察する。
アルゴリズムフェアネスの強制が対象領域のベイズモデルにつながる必要十分条件を導出する。
- 参考スコア(独自算出の注目度): 45.51706479763718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many instances of algorithmic bias are caused by subpopulation shifts. For
example, ML models often perform worse on demographic groups that are
underrepresented in the training data. In this paper, we study whether
enforcing algorithmic fairness during training improves the performance of the
trained model in the \emph{target domain}. On one hand, we conceive scenarios
in which enforcing fairness does not improve performance in the target domain.
In fact, it may even harm performance. On the other hand, we derive necessary
and sufficient conditions under which enforcing algorithmic fairness leads to
the Bayes model in the target domain. We also illustrate the practical
implications of our theoretical results in simulations and on real data.
- Abstract(参考訳): アルゴリズムバイアスの多くの例は、サブポピュレーションシフトによって引き起こされる。
例えば、MLモデルは、トレーニングデータに不足している人口統計群に対して、しばしば悪化する。
本稿では,訓練中のアルゴリズムフェアネスの強制が,訓練されたモデルの性能を向上させるかどうかを考察する。
一方、フェアネスを強制することで、ターゲットドメインのパフォーマンスが向上しないシナリオを想定しています。
実際、パフォーマンスを害するかもしれません。
一方,アルゴリズム的公平性が対象領域内のベイズモデルに繋がる必要十分条件を導出する。
また,シミュレーションや実データにおける理論結果の実用的意義についても述べる。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Consistent Diffusion Models: Mitigating Sampling Drift by Learning to be
Consistent [97.64313409741614]
本稿では, モデルが生成したデータ上での予測が時間とともに一定であることを示す, 両立性特性を強制することを提案する。
CIFAR-10の条件および非条件生成とAFHQとFFHQのベースライン改良について,本研究の新たな訓練目標が得られた。
論文 参考訳(メタデータ) (2023-02-17T18:45:04Z) - Fairness and Accuracy under Domain Generalization [10.661409428935494]
機械学習アルゴリズムが特定の社会グループに偏っているのではないかという懸念が持ち上がっている。
MLモデルを公平にするための多くのアプローチが提案されているが、トレーニングとデプロイメントにおけるデータ分散が同一であるという仮定に依存しているのが一般的である。
本研究では,テスト時のデータのサンプル化が可能な領域一般化の下でのフェアネスと精度の両面について検討する。
論文 参考訳(メタデータ) (2023-01-30T23:10:17Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。