論文の概要: Learning Antidote Data to Individual Unfairness
- arxiv url: http://arxiv.org/abs/2211.15897v3
- Date: Wed, 24 May 2023 04:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 02:52:21.314525
- Title: Learning Antidote Data to Individual Unfairness
- Title(参考訳): 個人不公平に対する解毒剤データの学習
- Authors: Peizhao Li, Ethan Xia, Hongfu Liu
- Abstract要約: 個人の公平さは、個々のケースに対する公平な扱いを記述する上で不可欠な概念である。
従来の研究では、個人的公正性は予測不変問題として特徴づけられていた。
我々は,予測ユーティリティの最小あるいはゼロのコストで,個人の不公平さを抑える方法を示す。
- 参考スコア(独自算出の注目度): 23.119278763970037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is essential for machine learning systems deployed in high-stake
applications. Among all fairness notions, individual fairness, deriving from a
consensus that `similar individuals should be treated similarly,' is a vital
notion to describe fair treatment for individual cases. Previous studies
typically characterize individual fairness as a prediction-invariant problem
when perturbing sensitive attributes on samples, and solve it by
Distributionally Robust Optimization (DRO) paradigm. However, such adversarial
perturbations along a direction covering sensitive information used in DRO do
not consider the inherent feature correlations or innate data constraints,
therefore could mislead the model to optimize at off-manifold and unrealistic
samples. In light of this drawback, in this paper, we propose to learn and
generate antidote data that approximately follows the data distribution to
remedy individual unfairness. These generated on-manifold antidote data can be
used through a generic optimization procedure along with original training
data, resulting in a pure pre-processing approach to individual unfairness, or
can also fit well with the in-processing DRO paradigm. Through extensive
experiments on multiple tabular datasets, we demonstrate our method resists
individual unfairness at a minimal or zero cost to predictive utility compared
to baselines.
- Abstract(参考訳): フェアネスは、ハイテイクアプリケーションにデプロイされる機械学習システムに不可欠である。
すべての公正概念の中で、「類似した個人も同様に扱われるべき」という意見の一致から生じる個人公正は、個々の事件に対する公平な扱いを記述する上で不可欠な概念である。
従来の研究では、個々の公正性は、サンプルに機密属性を摂動する際に予測不変の問題として特徴づけられ、分散ロバスト最適化(DRO)パラダイムによって解決される。
しかし、DROで使用されるセンシティブな情報をカバーする方向に沿ったこのような逆方向の摂動は、固有の特徴相関や自然データ制約を考慮せず、オフ・マニフォールドおよび非現実的なサンプルで最適化するためにモデルを誤解させる可能性がある。
本稿では,この欠点を踏まえて,個々の不公平を解消するためのデータ分布を概ね追従する解毒剤データを学習し,生成することを提案する。
これらの生成したon-manifold antidoteデータは、元のトレーニングデータとともに汎用的な最適化手順を通じて使用することができ、結果として個々の不公平に対する純粋な前処理アプローチとなり、プロセス内droパラダイムにも適合する。
複数の表付きデータセットに対する広範な実験を通じて,本手法は,ベースラインと比較して予測ユーティリティに対して,最小あるいはゼロのコストで個々の不公平さに抵抗することを示した。
関連論文リスト
- Alpha and Prejudice: Improving $α$-sized Worst-case Fairness via Intrinsic Reweighting [34.954141077528334]
既成人口集団との最悪のフェアネスは、最悪の集団のモデルユーティリティを最大化することで、同等性を達成する。
近年の進歩は、最小分割比の低い境界を導入することで、この学習問題を再構築している。
論文 参考訳(メタデータ) (2024-11-05T13:04:05Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Fair CoVariance Neural Networks [34.68621550644667]
本稿では,Fair CoVariance Neural Networks (FVNN) を提案する。
我々は,FVNNが類似のPCAアプローチよりも本質的に公平であることを証明する。
論文 参考訳(メタデータ) (2024-09-13T06:24:18Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Fair mapping [0.0]
本稿では,保護されたグループの分布を選択対象に変換した新しい前処理手法を提案する。
我々はWasserstein GANおよびAttGANフレームワークの最近の成果を活用し、最適なデータポイントの転送を実現する。
提案手法は、データの解釈可能性を維持し、センシティブなグループを正確に定義することなく使用することができる。
論文 参考訳(メタデータ) (2022-09-01T17:31:27Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。