論文の概要: Model Guidance via Robust Feature Attribution
- arxiv url: http://arxiv.org/abs/2506.19680v1
- Date: Tue, 24 Jun 2025 14:47:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.679562
- Title: Model Guidance via Robust Feature Attribution
- Title(参考訳): ロバスト特徴属性によるモデルガイダンス
- Authors: Mihnea Ghitu, Matthew Wicker, Vihari Piratla,
- Abstract要約: 提案手法は,最先端手法と比較してテスト時の誤分類を20%削減する。
また、実験前の設定を自然言語処理タスクを含むように拡張します。
- 参考スコア(独自算出の注目度): 11.68718298442961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Controlling the patterns a model learns is essential to preventing reliance on irrelevant or misleading features. Such reliance on irrelevant features, often called shortcut features, has been observed across domains, including medical imaging and natural language processing, where it may lead to real-world harms. A common mitigation strategy leverages annotations (provided by humans or machines) indicating which features are relevant or irrelevant. These annotations are compared to model explanations, typically in the form of feature salience, and used to guide the loss function during training. Unfortunately, recent works have demonstrated that feature salience methods are unreliable and therefore offer a poor signal to optimize. In this work, we propose a simplified objective that simultaneously optimizes for explanation robustness and mitigation of shortcut learning. Unlike prior objectives with similar aims, we demonstrate theoretically why our approach ought to be more effective. Across a comprehensive series of experiments, we show that our approach consistently reduces test-time misclassifications by 20% compared to state-of-the-art methods. We also extend prior experimental settings to include natural language processing tasks. Additionally, we conduct novel ablations that yield practical insights, including the relative importance of annotation quality over quantity. Code for our method and experiments is available at: https://github.com/Mihneaghitu/ModelGuidanceViaRobustFeatureAttribution.
- Abstract(参考訳): モデルが学習するパターンを制御することは、無関係または誤解を招く機能への依存を防ぐために不可欠である。
このような無関係な特徴(しばしばショートカットと呼ばれる)への依存は、医療画像や自然言語処理などの領域で観察され、現実世界の害に繋がる可能性がある。
一般的な緩和戦略はアノテーション(人間や機械によって提供される)を利用して、どの特徴が関連があるか、無関係かを示す。
これらのアノテーションは、典型的には特徴満足の形でモデル説明と比較され、訓練中の損失関数のガイドに使用される。
残念なことに、最近の研究は、フィーチャー・サリエンス法は信頼性が低く、最適化のための信号が不十分であることを示した。
本研究では,ショートカット学習の頑健さと軽減を同時に説明するための簡易な目的を提案する。
同様の目的を持つ以前の目標とは異なり、我々のアプローチがより効果的であるべき理由を理論的に実証する。
総合的な一連の実験において、我々の手法は最先端の手法と比較してテスト時の誤分類を20%削減することを示した。
また、実験前の設定を自然言語処理タスクを含むように拡張します。
さらに,アノテーション品質の相対的重要性を量よりも重視するなど,実践的な洞察をもたらす斬新なアブリケーションも実施する。
私たちのメソッドと実験のコードは、https://github.com/Mihneaghitu/ModelGuidanceViaRobustFeatureAttribution.comで利用可能です。
関連論文リスト
- Post-hoc Spurious Correlation Neutralization with Single-Weight Fictitious Class Unlearning [46.2410852276839]
ニューラルネットワークのトレーニングは、トレーニング損失を最小限に抑えるショートカットとして、最も単純な機能を利用する傾向がある。
これらの特徴のいくつかは、ターゲットラベルと急激な相関関係があり、モデルによる誤った予測につながる可能性がある。
単重修正を用いた独特なクラス除去手法を提案する。
論文 参考訳(メタデータ) (2025-01-24T02:22:42Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Finding Significant Features for Few-Shot Learning using Dimensionality
Reduction [0.0]
このモジュールは、計量学習法により与えられる類似度関数を、分類のためのより識別的な特徴を持つようにすることで、精度の向上を支援する。
提案手法は,MiniImageNetデータセットにおけるメトリック学習ベースラインの精度を約2%向上させる。
論文 参考訳(メタデータ) (2021-07-06T16:36:57Z) - Can contrastive learning avoid shortcut solutions? [88.249082564465]
暗黙的特徴修正(IFM)は、より広い種類の予測的特徴を捉えるために、対照的なモデルを導くために、正と負のサンプルを変更する方法である。
IFMは特徴抑制を低減し、その結果、視覚および医用画像タスクのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-06-21T16:22:43Z) - Representation Learning for Weakly Supervised Relation Extraction [19.689433249830465]
本論文では、分散テキスト表現機能を学ぶための教師なし事前学習モデルをいくつか提示する。
実験により,従来の手作りの特徴と組み合わせることで,関係抽出のためのロジスティック分類モデルの性能が向上することが実証された。
論文 参考訳(メタデータ) (2021-04-10T12:22:25Z) - Confident Coreset for Active Learning in Medical Image Analysis [57.436224561482966]
本稿では,情報的サンプルを効果的に選択するための,不確実性と分散性を考慮した新しい能動的学習手法である信頼コアセットを提案する。
2つの医用画像解析タスクの比較実験により,本手法が他の活動的学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-05T13:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。