論文の概要: Ranking & Reweighting Improves Group Distributional Robustness
- arxiv url: http://arxiv.org/abs/2305.05759v1
- Date: Tue, 9 May 2023 20:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 15:23:18.434181
- Title: Ranking & Reweighting Improves Group Distributional Robustness
- Title(参考訳): Ranking & Reweightingはグループ分散ロバスト性を改善する
- Authors: Yachuan Liu, Bohan Zhang, Qiaozhu Mei and Paramveer Dhillon
- Abstract要約: 本研究では,DRU(Discounted Rank Upweighting)と呼ばれるランキングベースのトレーニング手法を提案し,テストデータ上で強力なOOD性能を示すモデルを学習する。
いくつかの合成および実世界のデータセットの結果は、群分布シフトに頑健なモデルの選択と学習において、グループレベルの(ソフトミニマックスと異なり)アプローチの優れた能力を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 14.021069321266516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that standard training via empirical risk minimization
(ERM) can produce models that achieve high accuracy on average but low accuracy
on underrepresented groups due to the prevalence of spurious features. A
predominant approach to tackle this group robustness problem minimizes the
worst group error (akin to a minimax strategy) on the training data, hoping it
will generalize well on the testing data. However, this is often suboptimal,
especially when the out-of-distribution (OOD) test data contains previously
unseen groups. Inspired by ideas from the information retrieval and
learning-to-rank literature, this paper first proposes to use Discounted
Cumulative Gain (DCG) as a metric of model quality for facilitating better
hyperparameter tuning and model selection. Being a ranking-based metric, DCG
weights multiple poorly-performing groups (instead of considering just the
group with the worst performance). As a natural next step, we build on our
results to propose a ranking-based training method called Discounted Rank
Upweighting (DRU), which differentially reweights a ranked list of
poorly-performing groups in the training data to learn models that exhibit
strong OOD performance on the test data. Results on several synthetic and
real-world datasets highlight the superior generalization ability of our
group-ranking-based (akin to soft-minimax) approach in selecting and learning
models that are robust to group distributional shifts.
- Abstract(参考訳): 近年の研究では、経験的リスク最小化(ERM)による標準トレーニングが、突発的特徴の出現により、非表現群における平均的かつ低い精度で精度の高いモデルを作成できることが示されている。
このグループロバストネス問題に取り組むための主要なアプローチは、トレーニングデータ上で最悪のグループエラー(minimax戦略のように)を最小限に抑え、テストデータの一般化を期待することです。
しかし、特にout-of-distriion (OOD) テストデータが以前は見られなかったグループを含む場合、これはしばしば最適である。
情報検索と学習-ランク文学のアイデアから着想を得た本論文では,まず,より優れたハイパーパラメータチューニングとモデル選択を容易にするためのモデル品質の指標として,Discounted Cumulative Gain(DCG)を用いることを提案する。
ランキングベースの指標であるDCGは、複数のパフォーマンスの悪いグループ(最低パフォーマンスを持つグループのみを考えるのではなく)を重み付けている。
そこで本研究では,本研究の次のステップとして,学習データ中の低パフォーマンスなグループのランキングリストを,テストデータ上で強力なoodパフォーマンスを示すモデルに区別的に重み付けする,disuseed rank upweighting(dru)と呼ばれるランキングベースのトレーニング手法を提案する。
いくつかの合成データと実世界のデータセットの結果は、グループ分布シフトにロバストなモデルの選択と学習において、グループ階層ベース(ソフトミニマックスと同様)アプローチの優れた一般化能力を強調している。
関連論文リスト
- Trained Models Tell Us How to Make Them Robust to Spurious Correlation without Group Annotation [3.894771553698554]
経験的リスク最小化(ERM)モデルは、ターゲットと高い刺激的な相関を持つ属性に依存する傾向がある。
これにより、これらの属性を欠いた未表現(または'マイナー')グループのパフォーマンスを低下させることができる。
本稿では,環境に基づく検証と損失に基づくサンプリング(EVaLS)を提案する。
論文 参考訳(メタデータ) (2024-10-07T08:17:44Z) - Data Debiasing with Datamodels (D3M): Improving Subgroup Robustness via Data Selection [80.85902083005237]
データモデルによるデータデバイアス(Data Debiasing with Datamodels, D3M)は、マイノリティグループにおけるモデルの障害を駆動する特定のトレーニング例を分離し、削除するデバイアス(debiasing)アプローチである。
論文 参考訳(メタデータ) (2024-06-24T17:51:01Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Bias Amplification Enhances Minority Group Performance [10.380812738348899]
本稿では,新しい2段階学習アルゴリズムであるBAMを提案する。
第1段階では、各トレーニングサンプルに対して学習可能な補助変数を導入することにより、バイアス増幅方式を用いてモデルを訓練する。
第2段階では、バイアス増幅モデルが誤分類したサンプルを重み付けし、その後、再重み付けされたデータセット上で同じモデルをトレーニングし続けます。
論文 参考訳(メタデータ) (2023-09-13T04:40:08Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Take One Gram of Neural Features, Get Enhanced Group Robustness [23.541213868620837]
経験的リスク最小化で訓練された機械学習モデルの予測性能は、分散シフト下で大幅に低下する可能性がある。
本稿では,識別モデルの抽出した特徴の文法行列に基づいて,トレーニングデータセットをグループに分割する。
このアプローチは、ERMに対するグループロバスト性を向上するだけでなく、最近のすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-08-26T12:34:55Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。