論文の概要: Superclass-Guided Representation Disentanglement for Spurious Correlation Mitigation
- arxiv url: http://arxiv.org/abs/2508.08570v1
- Date: Tue, 12 Aug 2025 02:16:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.276634
- Title: Superclass-Guided Representation Disentanglement for Spurious Correlation Mitigation
- Title(参考訳): Spurious correlation Mitigation のためのスーパークラスガイド型表現ディスタングル
- Authors: Chenruo Liu, Hongjun Liu, Zeyu Lai, Yiqiu Shen, Chen Zhao, Qi Lei,
- Abstract要約: 本稿では,クラスラベルに固有の意味構造を利用して,突発的特徴への依存を減らす手法を提案する。
我々のモデルは、事前学習された視覚言語モデルによって誘導される勾配に基づく注意力を用いて、超クラス関連と無関係の特徴を解き放つ。
提案手法は, ソースサンプルにアノテートすることなく, より複雑なスプリアス相関に頑健性を実現する。
- 参考スコア(独自算出の注目度): 16.791911185682256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To enhance group robustness to spurious correlations, prior work often relies on auxiliary annotations for groups or spurious features and assumes identical sets of groups across source and target domains. These two requirements are both unnatural and impractical in real-world settings. To overcome these limitations, we propose a method that leverages the semantic structure inherent in class labels--specifically, superclass information--to naturally reduce reliance on spurious features. Our model employs gradient-based attention guided by a pre-trained vision-language model to disentangle superclass-relevant and irrelevant features. Then, by promoting the use of all superclass-relevant features for prediction, our approach achieves robustness to more complex spurious correlations without the need to annotate any source samples. Experiments across diverse datasets demonstrate that our method significantly outperforms baselines in domain generalization tasks, with clear improvements in both quantitative metrics and qualitative visualizations.
- Abstract(参考訳): グループロバスト性を高めるために、事前の作業は、しばしばグループや刺激的特徴に対する補助アノテーションに頼り、ソース領域とターゲット領域をまたいで同じグループの集合を仮定する。
これらの2つの要件は、現実の環境では非自然かつ非現実的です。
これらの制約を克服するために,クラスラベルに固有の意味構造(特にスーパークラス情報)を活用する手法を提案する。
我々のモデルは、事前学習された視覚言語モデルによって誘導される勾配に基づく注意力を用いて、超クラス関連と無関係の特徴を解き放つ。
提案手法は,全てのスーパークラス関連特徴を予測に活用することにより,ソースサンプルに注釈を付けることなく,より複雑なスプリアス相関に頑健性を実現する。
各種データセットを対象とした実験により,本手法は領域一般化タスクのベースラインを著しく上回り,定量化と定性的視覚化の両面で明らかに改善されている。
関連論文リスト
- Multi-Level Aware Preference Learning: Enhancing RLHF for Complex Multi-Instruction Tasks [81.44256822500257]
RLHFは、人工知能システムと人間の好みを結びつける主要なアプローチとして登場した。
RLHFは、複雑なマルチインストラクションタスクに直面すると、不十分なコンプライアンス機能を示す。
本稿では,マルチインストラクション能力を向上させる新しいMAPL(Multi-level Aware Preference Learning)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-19T08:33:11Z) - Enhancing Interpretability Through Loss-Defined Classification Objective in Structured Latent Spaces [5.2542280870644715]
本稿では,高度な距離メトリック学習を教師付き分類タスクに統合する新しいアプローチであるLatent Boostを紹介する。
Latent Boostは、より高いシルエットスコアで示されるように、分類解釈性を改善し、トレーニング収束を加速する。
論文 参考訳(メタデータ) (2024-12-11T16:25:17Z) - Cluster Specific Representation Learning [1.6727186769396276]
広く応用されているにもかかわらず、善の表象の定義は確立されていない。
本稿では,データに固有のクラスタが存在する場合,各クラスタに固有の表現が必要であるという,ダウンストリームに依存しない定式化を提案する。
そこで我々は,クラスタ固有の表現とクラスタ割り当てを共同で学習するメタアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-12-04T16:59:37Z) - Learning from Neighbors: Category Extrapolation for Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Top-$k$ Regularization for Supervised Feature Selection [11.927046591097623]
教師付き特徴選択のための新しい,シンプルで効果的な正規化手法である Top-k$ regularization を導入する。
上位$kの正規化は、教師付き特徴選択に有効で安定であることを示す。
論文 参考訳(メタデータ) (2021-06-04T01:12:47Z) - Improving cluster recovery with feature rescaling factors [2.4366811507669124]
再スケーリング手順は、すべての機能を同一に扱うべきではない、と我々は主張する。
本稿では,各機能のクラスタ内関係を考慮に入れた機能再スケーリング手法を提案する。
提案手法を用いたクラスタリング手法は, 従来のデータ正規化手法よりも明らかに優れていることを示す。
論文 参考訳(メタデータ) (2020-12-01T13:29:35Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。