論文の概要: Mitigating Clever Hans Strategies in Image Classifiers through Generating Counterexamples
- arxiv url: http://arxiv.org/abs/2510.17524v1
- Date: Mon, 20 Oct 2025 13:22:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.465675
- Title: Mitigating Clever Hans Strategies in Image Classifiers through Generating Counterexamples
- Title(参考訳): 反例生成による画像分類器におけるクレバーハンズ戦略の緩和
- Authors: Sidney Bender, Ole Delzer, Jan Herrmann, Heike Antje Marxfeld, Klaus-Robert Müller, Grégoire Montavon,
- Abstract要約: 群分布ロバストネス法は、明示的な群ラベルを重みの低い群に頼っている。
本稿では, 種々の偽物を生成するフレームワークCFKDを提案する。
CFKDの有効性を5つのデータセットにまたがって示す。
- 参考スコア(独自算出の注目度): 15.618934546058277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models remain vulnerable to spurious correlations, leading to so-called Clever Hans predictors that undermine robustness even in large-scale foundation and self-supervised models. Group distributional robustness methods, such as Deep Feature Reweighting (DFR) rely on explicit group labels to upweight underrepresented subgroups, but face key limitations: (1) group labels are often unavailable, (2) low within-group sample sizes hinder coverage of the subgroup distribution, and (3) performance degrades sharply when multiple spurious correlations fragment the data into even smaller groups. We propose Counterfactual Knowledge Distillation (CFKD), a framework that sidesteps these issues by generating diverse counterfactuals, enabling a human annotator to efficiently explore and correct the model's decision boundaries through a knowledge distillation step. Unlike DFR, our method not only reweights the undersampled groups, but it also enriches them with new data points. Our method does not require any confounder labels, achieves effective scaling to multiple confounders, and yields balanced generalization across groups. We demonstrate CFKD's efficacy across five datasets, spanning synthetic tasks to an industrial application, with particularly strong gains in low-data regimes with pronounced spurious correlations. Additionally, we provide an ablation study on the effect of the chosen counterfactual explainer and teacher model, highlighting their impact on robustness.
- Abstract(参考訳): ディープラーニングモデルは、急激な相関に弱いままであり、大規模な基礎モデルや自己教師型モデルでさえも、堅牢性を損なういわゆるClever Hans予測に繋がる。
DFR(Deep Feature Reweighting)のようなグループ分布のロバスト性手法は、明示的なグループラベルを過度に表現されたサブグループに頼っているが、(1)グループラベルがしばしば利用できないこと、(2)グループ内部のサンプルサイズが低いことがサブグループ分布のカバレッジを妨げること、(3)複数のスプリアス相関がデータをより小さなグループに分解した場合、パフォーマンスが急激に低下すること、といった重要な制限に直面している。
本稿では,これらの問題を多種多様な反事実を発生させ,人間のアノテータが知識蒸留工程を通じてモデルの判断境界を効率的に探索・修正することを可能にするフレームワークであるCFKDを提案する。
DFRとは異なり、この手法はアンダーサンプリングされたグループを再重み付けするだけでなく、新しいデータポイントでそれらを強化する。
提案手法は共同設立者ラベルを一切必要とせず,複数の共同設立者への効果的なスケーリングを実現し,グループ間でのバランスの取れた一般化を実現する。
CFKDの有効性は5つのデータセットにまたがって実証され、合成タスクから産業アプリケーションにまたがる。
さらに,選択した対実的説明法と教師モデルの効果に関するアブレーション研究を行い,それらが頑健性に与える影響を強調した。
関連論文リスト
- C2AL: Cohort-Contrastive Auxiliary Learning for Large-scale Recommendation Systems [7.548682352355034]
共有埋め込み選択のための因子化機械において,注意機構が重要な役割を担っていることを示す。
本稿では、データセットのサブ構造を分析し、補助学習を通して強力な分布コントラストを持つ構造を明らかにすることで、この問題に対処することを提案する。
このアプローチは、注目層の学習プロセスをカスタマイズし、少数派コホートとの相互情報を保護し、グローバルなパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2025-10-02T17:00:17Z) - Project-Probe-Aggregate: Efficient Fine-Tuning for Group Robustness [61.45587642780908]
画像テキスト基礎モデルのパラメータ効率向上のための3段階のアプローチを提案する。
本手法は, マイノリティ標本同定とロバストトレーニングアルゴリズムの2つの重要な要素を改良する。
我々の理論分析は,PPAが少数群の識別を向上し,バランスの取れたグループエラーを最小限に抑えるためにベイズが最適であることを示している。
論文 参考訳(メタデータ) (2025-03-12T15:46:12Z) - Group-robust Sample Reweighting for Subpopulation Shifts via Influence Functions [37.0753553356624]
グループロバストサンプル再重み付け(GSR)は、まずグループ未ラベルデータから表現を学習する2段階の手法である。
GSRは理論的には健全で、実質的に軽量であり、人口移動に対する堅牢性を改善するのに効果的である。
論文 参考訳(メタデータ) (2025-03-10T13:34:18Z) - Efficient Bias Mitigation Without Privileged Information [14.21628601482357]
経験的リスク最小化を通じてトレーニングされたディープニューラルネットワークは、グループ間での大きなパフォーマンス格差を示すことが多い。
この問題に対処しようとする既存のバイアス軽減手法は、トレーニングや検証のためにグループラベルに依存していることが多い。
本稿では,支援者モデルのトレーニング履歴全体を活用するフレームワークであるTAB(Targeted Augmentations for Bias Mitigation)を提案する。
また,TABはグループ情報やモデル選択を使わずにグループ性能を向上し,全体の精度を維持しながら既存手法よりも優れていたことを示す。
論文 参考訳(メタデータ) (2024-09-26T09:56:13Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - Take One Gram of Neural Features, Get Enhanced Group Robustness [23.541213868620837]
経験的リスク最小化で訓練された機械学習モデルの予測性能は、分散シフト下で大幅に低下する可能性がある。
本稿では,識別モデルの抽出した特徴の文法行列に基づいて,トレーニングデータセットをグループに分割する。
このアプローチは、ERMに対するグループロバスト性を向上するだけでなく、最近のすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-08-26T12:34:55Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。