論文の概要: Learning Antidote Data to Individual Unfairness
- arxiv url: http://arxiv.org/abs/2211.15897v1
- Date: Tue, 29 Nov 2022 03:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 17:53:35.623214
- Title: Learning Antidote Data to Individual Unfairness
- Title(参考訳): 個人不公平に対する解毒剤データの学習
- Authors: Peizhao Li, Ethan Xia, Hongfu Liu
- Abstract要約: 本研究では,データ分布をほぼ追従するデータを学習・生成し,個人不公平を解消する手法を提案する。
我々のデータは、モデルが予測する解毒剤の効用に対して、最小またはゼロのコストで個々の不公平さに抵抗する。
- 参考スコア(独自算出の注目度): 23.119278763970037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is an essential factor for machine learning systems deployed in
high-stake applications. Among all fairness notions, individual fairness,
following a consensus that `similar individuals should be treated similarly,'
is a vital notion to guarantee fair treatment for individual cases. Previous
methods typically characterize individual fairness as a prediction-invariant
problem when perturbing sensitive attributes, and solve it by adopting the
Distributionally Robust Optimization (DRO) paradigm. However, adversarial
perturbations along a direction covering sensitive information do not consider
the inherent feature correlations or innate data constraints, and thus mislead
the model to optimize at off-manifold and unrealistic samples. In light of
this, we propose a method to learn and generate antidote data that
approximately follows the data distribution to remedy individual unfairness.
These on-manifold antidote data can be used through a generic optimization
procedure with original training data, resulting in a pure pre-processing
approach to individual unfairness, or can also fit well with the in-processing
DRO paradigm. Through extensive experiments, we demonstrate our antidote data
resists individual unfairness at a minimal or zero cost to the model's
predictive utility.
- Abstract(参考訳): フェアネスは、ハイテイクアプリケーションにデプロイされる機械学習システムにとって重要な要素である。
すべての公正概念の中で、「類似した個人も同様に扱われるべき」という意見の一致に従えば、個々の事件に対する公平な扱いを保証する上で不可欠な概念である。
従来の手法では、感度特性を摂動する際の予測不変問題として個々の公正性を特徴付け、分散ロバスト最適化(DRO)パラダイムを採用して解決する。
しかし、センシティブな情報をカバーする方向に沿った逆摂動は、固有の特徴相関や生来のデータ制約を考慮せず、オフマニフォールドと非現実的なサンプルで最適化するようにモデルを誤解する。
そこで本研究では, 個人不公平を緩和するために, データ分布をほぼ追従する解毒剤データを学習し, 生成する手法を提案する。
これらのon-manifoldアンチドテデータは、元のトレーニングデータによる汎用的な最適化手順によって利用することができ、結果として個々の不公平性に対する純粋な前処理アプローチが実現される。
広範囲な実験を通じて、我々の解毒剤データは、モデルの予測ユーティリティに対して最小またはゼロのコストで個々の不公平さに抵抗することを示した。
関連論文リスト
- Alpha and Prejudice: Improving $α$-sized Worst-case Fairness via Intrinsic Reweighting [34.954141077528334]
既成人口集団との最悪のフェアネスは、最悪の集団のモデルユーティリティを最大化することで、同等性を達成する。
近年の進歩は、最小分割比の低い境界を導入することで、この学習問題を再構築している。
論文 参考訳(メタデータ) (2024-11-05T13:04:05Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Fair CoVariance Neural Networks [34.68621550644667]
本稿では,Fair CoVariance Neural Networks (FVNN) を提案する。
我々は,FVNNが類似のPCAアプローチよりも本質的に公平であることを証明する。
論文 参考訳(メタデータ) (2024-09-13T06:24:18Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Fair mapping [0.0]
本稿では,保護されたグループの分布を選択対象に変換した新しい前処理手法を提案する。
我々はWasserstein GANおよびAttGANフレームワークの最近の成果を活用し、最適なデータポイントの転送を実現する。
提案手法は、データの解釈可能性を維持し、センシティブなグループを正確に定義することなく使用することができる。
論文 参考訳(メタデータ) (2022-09-01T17:31:27Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。