論文の概要: Improving Group Robustness on Spurious Correlation via Evidential Alignment
- arxiv url: http://arxiv.org/abs/2506.11347v1
- Date: Thu, 12 Jun 2025 22:47:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.602824
- Title: Improving Group Robustness on Spurious Correlation via Evidential Alignment
- Title(参考訳): エビデンシャルアライメントによるスパーラス相関におけるグループロバスト性の改善
- Authors: Wenqian Ye, Guangtao Zheng, Aidong Zhang,
- Abstract要約: ディープニューラルネットワークは、しばしば急激な相関、すなわち非因果的特徴と標的の間の表面的関連を学習し、依存する。
既存のメソッドは通常、外部のグループアノテーションや補助的な決定論的モデルを使用することでこの問題を軽減する。
偏りのあるモデルの振る舞いを理解するために不確実性定量化を利用する新しいフレームワークであるエビデンシャルアライメントを提案する。
- 参考スコア(独自算出の注目度): 26.544938760265136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks often learn and rely on spurious correlations, i.e., superficial associations between non-causal features and the targets. For instance, an image classifier may identify camels based on the desert backgrounds. While it can yield high overall accuracy during training, it degrades generalization on more diverse scenarios where such correlations do not hold. This problem poses significant challenges for out-of-distribution robustness and trustworthiness. Existing methods typically mitigate this issue by using external group annotations or auxiliary deterministic models to learn unbiased representations. However, such information is costly to obtain, and deterministic models may fail to capture the full spectrum of biases learned by the models. To address these limitations, we propose Evidential Alignment, a novel framework that leverages uncertainty quantification to understand the behavior of the biased models without requiring group annotations. By quantifying the evidence of model prediction with second-order risk minimization and calibrating the biased models with the proposed evidential calibration technique, Evidential Alignment identifies and suppresses spurious correlations while preserving core features. We theoretically justify the effectiveness of our method as capable of learning the patterns of biased models and debiasing the model without requiring any spurious correlation annotations. Empirical results demonstrate that our method significantly improves group robustness across diverse architectures and data modalities, providing a scalable and principled solution to spurious correlations.
- Abstract(参考訳): ディープニューラルネットワークは、しばしば急激な相関、すなわち非因果的特徴と標的の間の表面的関連を学習し、依存する。
例えば、画像分類器は砂漠の背景に基づいてラクダを識別することができる。
トレーニング中の全体的な精度は高いが、そのような相関が持たないより多様なシナリオの一般化を低下させる。
この問題は、アウト・オブ・ディストリビューションの堅牢性と信頼性に重大な課題をもたらす。
既存の手法では、外部のグループアノテーションや補助的な決定論的モデルを使って、偏見のない表現を学習することで、この問題を軽減するのが一般的である。
しかし、そのような情報は入手するのに費用がかかり、決定論的モデルはモデルによって学習されたバイアスの完全なスペクトルを捉えることができないかもしれない。
これらの制約に対処するために,不確実な定量化を活用し,グループアノテーションを必要とせずにバイアスモデルの振る舞いを理解する新しいフレームワークであるEvidential Alignmentを提案する。
モデル予測の証拠を2次リスク最小化を用いて定量化し,提案手法を用いて偏差モデルのキャリブレーションを行うことにより,コア特性を保ちながら素早い相関を同定し,抑制する。
提案手法の有効性を理論的に正当化し, 相関アノテーションを必要とせず, 偏りのあるモデルのパターンを学習し, モデルを劣化させる手法を提案する。
実験結果から,本手法は多様なアーキテクチャとデータモダリティをまたいだグループロバスト性を大幅に向上させることを示す。
関連論文リスト
- Preference Learning for AI Alignment: a Causal Perspective [55.2480439325792]
私たちはこの問題を因果パラダイムに枠組み化し、永続的な課題を特定するための因果関係の豊富なツールボックスを提供します。
因果推論の文献を継承し、信頼性の高い一般化に必要な重要な仮定を特定する。
そこで本研究では, 因果関係に基づくアプローチがモデルロバスト性をいかに改善するかを, ナイーブ報酬モデルの障害モードを例示する。
論文 参考訳(メタデータ) (2025-06-06T10:45:42Z) - NeuronTune: Towards Self-Guided Spurious Bias Mitigation [26.544938760265136]
ディープニューラルネットワークは、しばしば急激な偏見、非本質的な特徴と予測のためのクラスの間の相関に依存する。
既存の緩和アプローチは典型的には、緩やかな相関の外部アノテーションに依存している。
本稿では,モデルの内部決定プロセスに直接介入するポストホック法であるNeuronTuneを提案する。
論文 参考訳(メタデータ) (2025-05-29T22:33:00Z) - Class-Conditional Distribution Balancing for Group Robust Classification [11.525201208566925]
間違った理由からモデルが正しい予測に導かれるような豪華な相関関係は、堅牢な現実世界の一般化にとって重要な課題である。
クラス-条件分布における不均衡やミスマッチとして、突発的な相関を緩和することで、新しい視点を提供する。
本稿では,バイアスアノテーションと予測の両方を必要としない,シンプルで効果的な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2025-04-24T07:15:53Z) - Fighting Spurious Correlations in Text Classification via a Causal Learning Perspective [2.7813683000222653]
本稿では,因果関係へのモデル依存を軽減するために,因果相関ロバスト (CCR) を提案する。
CCRは、逆確率重み付け(IPW)損失関数とともに、反ファクト推論に基づく因果的特徴選択法を統合する。
グループラベルを持たないメソッド間でのCCRの最先端性能を示し、場合によってはグループラベルを利用するモデルと競合する。
論文 参考訳(メタデータ) (2024-11-01T21:29:07Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。