論文の概要: Spurious Correlation-Aware Embedding Regularization for Worst-Group Robustness
- arxiv url: http://arxiv.org/abs/2511.04401v1
- Date: Thu, 06 Nov 2025 14:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.45325
- Title: Spurious Correlation-Aware Embedding Regularization for Worst-Group Robustness
- Title(参考訳): ワーストグループロバストネスに対する正規化を組み込んだSpurious correlation-aware
- Authors: Subeen Park, Joowang Kim, Hakyung Lee, Sunjae Yoo, Kyungwoo Song,
- Abstract要約: ディープラーニングモデルは、しばしば急激な相関に頼り、分散シフトに弱い。
ワーストグループロバストネスに対するSpurious correlation-Aware Embedding Regularizationを提案する。
SCERは, 最先端集団の精度において, 先行研究よりも優れていたことを示す。
- 参考スコア(独自算出の注目度): 17.169790318490502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models achieve strong performance across various domains but often rely on spurious correlations, making them vulnerable to distribution shifts. This issue is particularly severe in subpopulation shift scenarios, where models struggle in underrepresented groups. While existing methods have made progress in mitigating this issue, their performance gains are still constrained. They lack a rigorous theoretical framework connecting the embedding space representations with worst-group error. To address this limitation, we propose Spurious Correlation-Aware Embedding Regularization for Worst-Group Robustness (SCER), a novel approach that directly regularizes feature representations to suppress spurious cues. We show theoretically that worst-group error is influenced by how strongly the classifier relies on spurious versus core directions, identified from differences in group-wise mean embeddings across domains and classes. By imposing theoretical constraints at the embedding level, SCER encourages models to focus on core features while reducing sensitivity to spurious patterns. Through systematic evaluation on multiple vision and language, we show that SCER outperforms prior state-of-the-art studies in worst-group accuracy. Our code is available at \href{https://github.com/MLAI-Yonsei/SCER}{https://github.com/MLAI-Yonsei/SCER}.
- Abstract(参考訳): ディープラーニングモデルは、さまざまなドメインにわたって強力なパフォーマンスを達成するが、しばしば急激な相関に頼り、分散シフトに弱い。
この問題は、モデルが表現不足なグループで苦労するサブポピュレーションシフトのシナリオにおいて特に深刻である。
既存のメソッドではこの問題の緩和が進んでいるが、パフォーマンスの向上は依然として制限されている。
埋め込み空間表現と最悪の群誤差を結びつける厳密な理論的枠組みは欠如している。
この制限に対処するため,Spurious correlation-Aware Embedding Regularization for Worst-Group Robustness (SCER)を提案する。
理論的には、最悪のグループエラーは、ドメインやクラスにまたがるグループワイド平均埋め込みの違いから、分類器がスパイラスとコアの方向に依存するかによって影響される。
埋め込みレベルで理論的な制約を課すことで、SCERはモデルがコア機能に集中することを奨励し、刺激的なパターンに対する感度を低下させる。
マルチビジョンと言語を体系的に評価することにより、SCERは最悪のグループ精度で先行研究より優れていたことを示す。
我々のコードは \href{https://github.com/MLAI-Yonsei/SCER}{https://github.com/MLAI-Yonsei/SCER} で入手できる。
関連論文リスト
- The Group Robustness is in the Details: Revisiting Finetuning under Spurious Correlations [8.844894807922902]
現代の機械学習モデルは、素早い相関に過度に依存する傾向がある。
本稿では,最短群精度における微調整モデルの意外かつニュアンスな挙動を同定する。
以上の結果より,群強靭性を有する現代ファインチュードモデルの微妙な相互作用が以前よりも顕著に示された。
論文 参考訳(メタデータ) (2024-07-19T00:34:03Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - AGRO: Adversarial Discovery of Error-prone groups for Robust
Optimization [109.91265884632239]
群分散ロバスト最適化(G-DRO)は、トレーニングデータに対する事前定義されたグループのセットに対する最悪の損失を最小限にすることができる。
本稿では、分散ロバスト最適化のためのAGRO -- Adversarial Group Discoveryを提案する。
AGROは、既知の最悪のグループの平均モデルパフォーマンスを8%向上させる。
論文 参考訳(メタデータ) (2022-12-02T00:57:03Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - Correct-N-Contrast: A Contrastive Approach for Improving Robustness to Spurious Correlations [89.86495158918615]
豪華な相関関係は、堅牢な機械学習にとって大きな課題となる。
経験的リスク最小化(ERM)で訓練されたモデルは、クラスラベルとスプリアス属性の相関に依存することを学習することができる。
CNC(Correct-N-Contrast, Correct-N-Contrast)を提案する。
論文 参考訳(メタデータ) (2022-03-03T05:03:28Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。