論文の概要: Fair Infinitesimal Jackknife: Mitigating the Influence of Biased
Training Data Points Without Refitting
- arxiv url: http://arxiv.org/abs/2212.06803v1
- Date: Tue, 13 Dec 2022 18:36:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:40:43.683613
- Title: Fair Infinitesimal Jackknife: Mitigating the Influence of Biased
Training Data Points Without Refitting
- Title(参考訳): Fair Infinitesimal Jackknife: 適合のないバイアス付きトレーニングデータの影響の軽減
- Authors: Prasanna Sattigeri, Soumya Ghosh, Inkit Padhi, Pierre Dognin, Kush R.
Varshney
- Abstract要約: 本稿では、慎重に選択されたトレーニングデータポイントをドロップするだけで、事前学習した分類器の公平性を向上するアルゴリズムを提案する。
このような介入はモデルの予測性能を大幅に低下させるものではないが、公正度基準を大幅に改善する。
- 参考スコア(独自算出の注目度): 41.96570350954332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In consequential decision-making applications, mitigating unwanted biases in
machine learning models that yield systematic disadvantage to members of groups
delineated by sensitive attributes such as race and gender is one key
intervention to strive for equity. Focusing on demographic parity and equality
of opportunity, in this paper we propose an algorithm that improves the
fairness of a pre-trained classifier by simply dropping carefully selected
training data points. We select instances based on their influence on the
fairness metric of interest, computed using an infinitesimal jackknife-based
approach. The dropping of training points is done in principle, but in practice
does not require the model to be refit. Crucially, we find that such an
intervention does not substantially reduce the predictive performance of the
model but drastically improves the fairness metric. Through careful
experiments, we evaluate the effectiveness of the proposed approach on diverse
tasks and find that it consistently improves upon existing alternatives.
- Abstract(参考訳): 一連の意思決定アプリケーションでは、人種や性別などの繊細な属性によって分類されたグループのメンバーに系統的不利をもたらす機械学習モデルにおける望ましくないバイアスの軽減が、公平を追求するための重要な介入である。
本稿では, 事前学習した分類器の公平性を, 慎重に選択した学習データポイントをドロップするだけで改善するアルゴリズムを提案する。
我々は、無限小のjackknifeに基づくアプローチを用いて計算した、関心の公平性指標に対する影響に基づいてインスタンスを選択する。
トレーニングポイントのドロップは原則として行われるが、実際にはモデルがリフィットされる必要はない。
重要な点として,このような介入はモデルの予測性能を著しく低下させるものではなく,公平度指標を劇的に改善することを見出す。
注意深い実験を通じて,提案手法の有効性を評価し,既存の代替案を一貫して改善できることを見出した。
関連論文リスト
- Alpha and Prejudice: Improving $α$-sized Worst-case Fairness via Intrinsic Reweighting [34.954141077528334]
既成人口集団との最悪のフェアネスは、最悪の集団のモデルユーティリティを最大化することで、同等性を達成する。
近年の進歩は、最小分割比の低い境界を導入することで、この学習問題を再構築している。
論文 参考訳(メタデータ) (2024-11-05T13:04:05Z) - DRoP: Distributionally Robust Pruning [11.930434318557156]
我々は、訓練されたモデルの分類バイアスにデータプルーニングが与える影響について、最初の系統的研究を行う。
そこで我々はDRoPを提案する。DRoPは,標準的なコンピュータビジョンベンチマークにおいて,その性能を実証的に実証し,分散的に頑健な手法である。
論文 参考訳(メタデータ) (2024-04-08T14:55:35Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z) - A Distributionally Robust Approach to Fair Classification [17.759493152879013]
本研究では、性別や民族などのセンシティブな属性に対する差別を防止する不公平なペナルティを持つロジスティックなロジスティック回帰モデルを提案する。
このモデルは、トレーニングデータ上の経験的分布を中心とするワッサーシュタイン球が分布の不確かさのモデル化に使用される場合、トラクタブル凸最適化問題と等価である。
得られた分類器は, 合成データセットと実データセットの両方において, 予測精度の限界損失による公平性の向上を実証する。
論文 参考訳(メタデータ) (2020-07-18T22:34:48Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。