論文の概要: Boosting Fair Classifier Generalization through Adaptive Priority
Reweighing
- arxiv url: http://arxiv.org/abs/2309.08375v2
- Date: Sat, 30 Sep 2023 09:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 12:59:18.381515
- Title: Boosting Fair Classifier Generalization through Adaptive Priority
Reweighing
- Title(参考訳): 適応優先性強化による公平分類器の一般化
- Authors: Zhihao Hu, Yiran Xu, Mengnan Du, Jindong Gu, Xinmei Tian, and
Fengxiang He
- Abstract要約: より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
- 参考スコア(独自算出の注目度): 59.801444556074394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing penetration of machine learning applications in critical
decision-making areas, calls for algorithmic fairness are more prominent.
Although there have been various modalities to improve algorithmic fairness
through learning with fairness constraints, their performance does not
generalize well in the test set. A performance-promising fair algorithm with
better generalizability is needed. This paper proposes a novel adaptive
reweighing method to eliminate the impact of the distribution shifts between
training and test data on model generalizability. Most previous reweighing
methods propose to assign a unified weight for each (sub)group. Rather, our
method granularly models the distance from the sample predictions to the
decision boundary. Our adaptive reweighing method prioritizes samples closer to
the decision boundary and assigns a higher weight to improve the
generalizability of fair classifiers. Extensive experiments are performed to
validate the generalizability of our adaptive priority reweighing method for
accuracy and fairness measures (i.e., equal opportunity, equalized odds, and
demographic parity) in tabular benchmarks. We also highlight the performance of
our method in improving the fairness of language and vision models. The code is
available at https://github.com/che2198/APW.
- Abstract(参考訳): 重要な意思決定領域における機械学習アプリケーションの普及に伴い、アルゴリズム的公正性の要求がより顕著になる。
公正性制約を学習することでアルゴリズムの公正性を改善するための様々なモダリティがあるが、それらの性能はテストセットではうまく一般化しない。
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,モデル一般化性に対するトレーニングデータとテストデータ間の分布シフトの影響を解消する新しい適応緩和法を提案する。
以前のリウィーディング法のほとんどは、各(部分)群に対して統一重みを割り当てることを提案している。
むしろ,提案手法はサンプル予測から決定境界までの距離を粒密にモデル化する。
適応的リウィーディング法は, 決定境界に近いサンプルを優先し, 公平な分類器の一般化性を向上させるために高い重みを割り当てる。
グラフ型ベンチマークにおいて,適応的優先順位付け手法の精度と公平度(等機会,等化確率,人口比率)の一般化性を検証するため,広範囲な実験を行った。
また,言語と視覚モデルの公平性を向上する上で,本手法の性能を強調した。
コードはhttps://github.com/che2198/apwで入手できる。
関連論文リスト
- Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - An Adaptive Cost-Sensitive Learning and Recursive Denoising Framework for Imbalanced SVM Classification [12.986535715303331]
カテゴリー不均衡は、分類分野において最も人気があり重要な問題の一つである。
不均衡データセットに基づいてトレーニングされた感情分類モデルは、容易に信頼性の低い予測につながる。
論文 参考訳(メタデータ) (2024-03-13T09:43:14Z) - PriorBoost: An Adaptive Algorithm for Learning from Aggregate Responses [18.944561572423726]
我々は、事象レベルの損失関数のための集約セット(文献ではバッグと呼ばれる)の構築に焦点をあてる。
より均一なサンプルの袋を適応的に形成するPreferBoostアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T16:06:20Z) - Distributionally Robust Post-hoc Classifiers under Prior Shifts [31.237674771958165]
本研究では,クラスプライヤやグループプライヤの分布の変化による変化に頑健なトレーニングモデルの問題点について検討する。
本稿では,事前学習モデルからの予測に対するスケーリング調整を行う,非常に軽量なポストホック手法を提案する。
論文 参考訳(メタデータ) (2023-09-16T00:54:57Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Adaptive Experimentation at Scale: A Computational Framework for
Flexible Batches [7.390918770007728]
結果がバッチで測定される少数の実測を含む実例によって動機付けられ,適応駆動型実験フレームワークを開発した。
我々の主な観察は、統計的推論において普遍的な正規近似は適応アルゴリズムの設計を導くことができることである。
論文 参考訳(メタデータ) (2023-03-21T04:17:03Z) - Adaptive Sampling for Minimax Fair Classification [40.936345085421955]
最適化の原理に基づく適応型サンプリングアルゴリズムを提案し,その性能に関する理論的境界を導出する。
特定の問題のクラスに対してアルゴリズム独立なローバウンドを導出することにより,適応スキームによる性能は一般に改善できないことを示した。
論文 参考訳(メタデータ) (2021-03-01T04:58:27Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Robust Sampling in Deep Learning [62.997667081978825]
ディープラーニングは、オーバーフィッティングを減らし、一般化を改善するために正規化メカニズムを必要とする。
分散ロバスト最適化に基づく新しい正規化手法によりこの問題に対処する。
トレーニング中は、最悪のサンプルが最適化に最も貢献するものであるように、その正確性に応じてサンプルの選択が行われる。
論文 参考訳(メタデータ) (2020-06-04T09:46:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。