論文の概要: Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization
- arxiv url: http://arxiv.org/abs/2303.00442v1
- Date: Wed, 1 Mar 2023 12:00:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 14:56:21.241715
- Title: Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization
- Title(参考訳): クラスワイズロバスト最適化によるグループフェアネス正規化
- Authors: Sangwon Jung, Taeeon Park, Sanghyuk Chun, Taesup Moon
- Abstract要約: そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,この2つの学習手法を統一する原理的手法を提案する。
我々は,各グループに対して適切な再重み付けを自動的に生成することにより,結果の目的を最小化する反復最適化アルゴリズムを開発した。
実験の結果,FairDROはスケーラブルで,多様なアプリケーションに容易に適用可能であることがわかった。
- 参考スコア(独自算出の注目度): 30.089819400033985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many existing group fairness-aware training methods aim to achieve the group
fairness by either re-weighting underrepresented groups based on certain rules
or using weakly approximated surrogates for the fairness metrics in the
objective as regularization terms. Although each of the learning schemes has
its own strength in terms of applicability or performance, respectively, it is
difficult for any method in the either category to be considered as a gold
standard since their successful performances are typically limited to specific
cases. To that end, we propose a principled method, dubbed as \ours, which
unifies the two learning schemes by incorporating a well-justified group
fairness metric into the training objective using a class wise distributionally
robust optimization (DRO) framework. We then develop an iterative optimization
algorithm that minimizes the resulting objective by automatically producing the
correct re-weights for each group. Our experiments show that FairDRO is
scalable and easily adaptable to diverse applications, and consistently
achieves the state-of-the-art performance on several benchmark datasets in
terms of the accuracy-fairness trade-off, compared to recent strong baselines.
- Abstract(参考訳): 既存のグループフェアネス対応訓練手法の多くは、特定の規則に基づいて表現されていないグループを再重み付けするか、あるいは正規化項として目的のフェアネス指標に対して弱い近似されたサロゲートを用いてグループフェアネスを達成することを目的としている。
それぞれの学習方式は適用性や性能に関してそれぞれ独自の強みを持っているが、その成功例が特定の場合に限られているため、どちらのカテゴリーの手法でも金本位制と見なすのは困難である。
そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,2つの学習スキームを統一する,‘ours’と呼ばれる原則的手法を提案する。
次に、各グループに対して正しい再重みを自動生成することにより、結果の目的を最小化する反復最適化アルゴリズムを開発する。
実験の結果,FairDROは多様なアプリケーションに適用可能であり,最近の強靭なベースラインと比較して,精度と公正性のトレードオフの観点から,複数のベンチマークデータセットの最先端性能を一貫して達成していることがわかった。
関連論文リスト
- Group Robust Preference Optimization in Reward-free RLHF [23.622835830345725]
そこで本研究では,大規模言語モデルと各グループの嗜好を密に整合させる新しいグループロバスト選好最適化法を提案する。
これを達成するため、GRPOは異なるグループの重要性を適応的かつ順次重み付けし、累積損失が悪化したグループを優先順位付けする。
我々は,最悪のパフォーマンス群の性能向上,グループ間の損失不均衡の低減,確率精度の向上について検討した。
論文 参考訳(メタデータ) (2024-05-30T17:50:04Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Bias Amplification Enhances Minority Group Performance [10.380812738348899]
本稿では,新しい2段階学習アルゴリズムであるBAMを提案する。
第1段階では、各トレーニングサンプルに対して学習可能な補助変数を導入することにより、バイアス増幅方式を用いてモデルを訓練する。
第2段階では、バイアス増幅モデルが誤分類したサンプルを重み付けし、その後、再重み付けされたデータセット上で同じモデルをトレーニングし続けます。
論文 参考訳(メタデータ) (2023-09-13T04:40:08Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Focus on the Common Good: Group Distributional Robustness Follows [47.62596240492509]
本稿では,多様なグループ間で共有される特徴の学習を明示的に促進する,新しい,シンプルなアルゴリズムを提案する。
グループDROは、最低の正規化損失を持つグループに焦点を当て、代わりに、他のグループでもより良いパフォーマンスを実現するグループに焦点を当てるが、共有/共通機能を学ぶことにつながる可能性がある。
論文 参考訳(メタデータ) (2021-10-06T09:47:41Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Individually Fair Ranking [23.95661284311917]
個別に公平な学習からランクへのモデルを訓練するアルゴリズムを開発した。
提案手法では,少数グループの項目が多数派からの類似項目とともに現れることを保証する。
論文 参考訳(メタデータ) (2021-03-19T21:17:11Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。