論文の概要: AGRO: Adversarial Discovery of Error-prone groups for Robust
Optimization
- arxiv url: http://arxiv.org/abs/2212.00921v1
- Date: Fri, 2 Dec 2022 00:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 15:38:12.965708
- Title: AGRO: Adversarial Discovery of Error-prone groups for Robust
Optimization
- Title(参考訳): AGRO:ロバスト最適化のためのエラープロングループの逆発見
- Authors: Bhargavi Paranjape, Pradeep Dasigi, Vivek Srikumar, Luke Zettlemoyer
and Hannaneh Hajishirzi
- Abstract要約: 群分散ロバスト最適化(G-DRO)は、トレーニングデータに対する事前定義されたグループのセットに対する最悪の損失を最小限にすることができる。
本稿では、分散ロバスト最適化のためのAGRO -- Adversarial Group Discoveryを提案する。
AGROは、既知の最悪のグループの平均モデルパフォーマンスを8%向上させる。
- 参考スコア(独自算出の注目度): 109.91265884632239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Models trained via empirical risk minimization (ERM) are known to rely on
spurious correlations between labels and task-independent input features,
resulting in poor generalization to distributional shifts. Group
distributionally robust optimization (G-DRO) can alleviate this problem by
minimizing the worst-case loss over a set of pre-defined groups over training
data. G-DRO successfully improves performance of the worst-group, where the
correlation does not hold. However, G-DRO assumes that the spurious
correlations and associated worst groups are known in advance, making it
challenging to apply it to new tasks with potentially multiple unknown spurious
correlations. We propose AGRO -- Adversarial Group discovery for
Distributionally Robust Optimization -- an end-to-end approach that jointly
identifies error-prone groups and improves accuracy on them. AGRO equips G-DRO
with an adversarial slicing model to find a group assignment for training
examples which maximizes worst-case loss over the discovered groups. On the
WILDS benchmark, AGRO results in 8% higher model performance on average on
known worst-groups, compared to prior group discovery approaches used with
G-DRO. AGRO also improves out-of-distribution performance on SST2, QQP, and
MS-COCO -- datasets where potential spurious correlations are as yet
uncharacterized. Human evaluation of ARGO groups shows that they contain
well-defined, yet previously unstudied spurious correlations that lead to model
errors.
- Abstract(参考訳): 経験的リスク最小化(ERM)によって訓練されたモデルは、ラベルとタスク非依存の入力特徴の間の急激な相関に依存することが知られており、結果として分布シフトへの一般化が不十分である。
群分散ロバスト最適化(G-DRO)は、トレーニングデータ上の一連の事前定義されたグループに対する最悪の損失を最小限に抑えることでこの問題を軽減することができる。
G-DROは相関が保たない最悪のグループの性能を向上させる。
しかしながら、G-DROは、スプリアス相関と関連する最悪の群が事前に知られていると仮定し、潜在的に未知のスプリアス相関を持つ新しいタスクに適用することは困難である。
AGRO -- Adversarial Group discovery for Distributionally Robust Optimization - エラーが発生しやすいグループを共同で識別し、精度を向上するエンドツーエンドアプローチを提案する。
AGROはG-DROを逆スライシングモデルで装備し、トレーニング例のためのグループ割り当てを見つけ、発見されたグループに対する最悪の損失を最大化する。
WILDSベンチマークでは、AGROはG-DROで使用されるグループ発見手法と比較して、既知の最悪のグループの平均モデル性能が8%向上する。
AGROはまた、SST2、QQP、MS-COCOのアウトオブディストリビューション性能も改善している。
ARGOグループの人間による評価は、モデルエラーにつながる、明確に定義された、しかし以前には未検討の急激な相関を含んでいることを示している。
関連論文リスト
- Trained Models Tell Us How to Make Them Robust to Spurious Correlation without Group Annotation [3.894771553698554]
経験的リスク最小化(ERM)モデルは、ターゲットと高い刺激的な相関を持つ属性に依存する傾向がある。
これにより、これらの属性を欠いた未表現(または'マイナー')グループのパフォーマンスを低下させることができる。
本稿では,環境に基づく検証と損失に基づくサンプリング(EVaLS)を提案する。
論文 参考訳(メタデータ) (2024-10-07T08:17:44Z) - Improving Group Robustness on Spurious Correlation Requires Preciser Group Inference [15.874604623294427]
標準経験的リスク(ERM)モデルは、スプリアス特徴と真のラベルの間の学習の急激な相関を優先し、これらの相関が持たないグループでは精度が低下する可能性がある。
GICは,グループラベルを正確に推測する手法であり,グループ性能が向上する。
論文 参考訳(メタデータ) (2024-04-22T01:28:35Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Take One Gram of Neural Features, Get Enhanced Group Robustness [23.541213868620837]
経験的リスク最小化で訓練された機械学習モデルの予測性能は、分散シフト下で大幅に低下する可能性がある。
本稿では,識別モデルの抽出した特徴の文法行列に基づいて,トレーニングデータセットをグループに分割する。
このアプローチは、ERMに対するグループロバスト性を向上するだけでなく、最近のすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-08-26T12:34:55Z) - Correct-N-Contrast: A Contrastive Approach for Improving Robustness to
Spurious Correlations [59.24031936150582]
豪華な相関関係は、堅牢な機械学習にとって大きな課題となる。
経験的リスク最小化(ERM)で訓練されたモデルは、クラスラベルとスプリアス属性の相関に依存することを学習することができる。
CNC(Correct-N-Contrast, Correct-N-Contrast)を提案する。
論文 参考訳(メタデータ) (2022-03-03T05:03:28Z) - Focus on the Common Good: Group Distributional Robustness Follows [47.62596240492509]
本稿では,多様なグループ間で共有される特徴の学習を明示的に促進する,新しい,シンプルなアルゴリズムを提案する。
グループDROは、最低の正規化損失を持つグループに焦点を当て、代わりに、他のグループでもより良いパフォーマンスを実現するグループに焦点を当てるが、共有/共通機能を学ぶことにつながる可能性がある。
論文 参考訳(メタデータ) (2021-10-06T09:47:41Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。