論文の概要: Mitigating Spurious Correlation via Distributionally Robust Learning with Hierarchical Ambiguity Sets
- arxiv url: http://arxiv.org/abs/2510.02818v1
- Date: Fri, 03 Oct 2025 08:50:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.320448
- Title: Mitigating Spurious Correlation via Distributionally Robust Learning with Hierarchical Ambiguity Sets
- Title(参考訳): 階層的曖昧性集合を用いた分布ロバスト学習による純粋相関の緩和
- Authors: Sung Ho Jo, Seonghwi Kim, Minwoo Chae,
- Abstract要約: グループ間不確実性とグループ内不確実性の両方に対処するグループDROの階層的拡張を提案する。
また、現実的なマイノリティグループ分布シフトをシミュレートする新しいベンチマーク設定も導入する。
これらの結果は、グループ間およびグループ内分布不確実性の両方をよりよく捉えるために、あいまいさを拡大することの重要性を強調している。
- 参考スコア(独自算出の注目度): 5.630530373119448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional supervised learning methods are often vulnerable to spurious correlations, particularly under distribution shifts in test data. To address this issue, several approaches, most notably Group DRO, have been developed. While these methods are highly robust to subpopulation or group shifts, they remain vulnerable to intra-group distributional shifts, which frequently occur in minority groups with limited samples. We propose a hierarchical extension of Group DRO that addresses both inter-group and intra-group uncertainties, providing robustness to distribution shifts at multiple levels. We also introduce new benchmark settings that simulate realistic minority group distribution shifts-an important yet previously underexplored challenge in spurious correlation research. Our method demonstrates strong robustness under these conditions-where existing robust learning methods consistently fail-while also achieving superior performance on standard benchmarks. These results highlight the importance of broadening the ambiguity set to better capture both inter-group and intra-group distributional uncertainties.
- Abstract(参考訳): 従来の教師付き学習手法は、特にテストデータの分布シフトの下では、しばしば急激な相関に弱い。
この問題に対処するため、特にグループDROのようないくつかのアプローチが開発されている。
これらの手法は、サブポピュレーションやグループシフトに対して非常に堅牢であるが、限られたサンプルを持つ少数集団で頻繁に発生するグループ内分布シフトに弱いままである。
グループ間不確実性とグループ内不確実性の両方に対処し,複数レベルの分散シフトに頑健性を与えるグループDROの階層的拡張を提案する。
また,本研究では,現実的な少数群の分布変化をシミュレートする新たなベンチマーク設定を導入する。
提案手法は,既存の頑健な学習手法が常にフェールする条件下での強靭性を示すとともに,標準ベンチマーク上での優れた性能を実現する。
これらの結果は、グループ間およびグループ内分布不確実性の両方をよりよく捉えるために、あいまいさを拡大することの重要性を強調している。
関連論文リスト
- Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Group conditional validity via multi-group learning [5.797821810358083]
本研究では,分布自由な共形予測の問題と群条件妥当性の基準について考察する。
既存の方法は、制限的群化構造または分布的仮定の下でそのような保証を達成する。
マルチグループ学習と呼ばれる問題に対して,アルゴリズムを活用することにより,個人集団に対する妥当性保証を実現する問題に対する簡易な削減を提案する。
論文 参考訳(メタデータ) (2023-03-07T15:51:03Z) - AGRO: Adversarial Discovery of Error-prone groups for Robust
Optimization [109.91265884632239]
群分散ロバスト最適化(G-DRO)は、トレーニングデータに対する事前定義されたグループのセットに対する最悪の損失を最小限にすることができる。
本稿では、分散ロバスト最適化のためのAGRO -- Adversarial Group Discoveryを提案する。
AGROは、既知の最悪のグループの平均モデルパフォーマンスを8%向上させる。
論文 参考訳(メタデータ) (2022-12-02T00:57:03Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - When Does Group Invariant Learning Survive Spurious Correlations? [29.750875769713513]
本稿では,既存のグループ不変学習手法が不十分であることを明らかにする。
そのような十分性を判断するための2つの基準を提案する。
既存の手法が両者の基準に反しうることを示し、その結果、相関の急激なシフトを一般化できないことを示す。
そこで我々は,統計的独立性試験を用いたグループ構築を行うグループ不変学習手法を考案した。
論文 参考訳(メタデータ) (2022-06-29T11:16:11Z) - Focus on the Common Good: Group Distributional Robustness Follows [47.62596240492509]
本稿では,多様なグループ間で共有される特徴の学習を明示的に促進する,新しい,シンプルなアルゴリズムを提案する。
グループDROは、最低の正規化損失を持つグループに焦点を当て、代わりに、他のグループでもより良いパフォーマンスを実現するグループに焦点を当てるが、共有/共通機能を学ぶことにつながる可能性がある。
論文 参考訳(メタデータ) (2021-10-06T09:47:41Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。