論文の概要: From Attribution to Action: Jointly ALIGNing Predictions and Explanations
- arxiv url: http://arxiv.org/abs/2511.06944v1
- Date: Mon, 10 Nov 2025 10:52:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.205374
- Title: From Attribution to Action: Jointly ALIGNing Predictions and Explanations
- Title(参考訳): 属性から行動へ:共同行動予測と説明
- Authors: Dongsheng Hong, Chao Chen, Yanhui Chen, Shanshan Lin, Zhihao Chen, Xiangwen Liao,
- Abstract要約: 分類器とマスカを反復的に訓練する新しいフレームワークであるALIGNを提案する。
高品質マスクをガイダンスとして活用することにより、ALIGNは解釈可能性と一般化性の両方を改善し、様々な設定でその優位性を示す。
- 参考スコア(独自算出の注目度): 7.1383591932321115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explanation-guided learning (EGL) has shown promise in aligning model predictions with interpretable reasoning, particularly in computer vision tasks. However, most approaches rely on external annotations or heuristic-based segmentation to supervise model explanations, which can be noisy, imprecise and difficult to scale. In this work, we provide both empirical and theoretical evidence that low-quality supervision signals can degrade model performance rather than improve it. In response, we propose ALIGN, a novel framework that jointly trains a classifier and a masker in an iterative manner. The masker learns to produce soft, task-relevant masks that highlight informative regions, while the classifier is optimized for both prediction accuracy and alignment between its saliency maps and the learned masks. By leveraging high-quality masks as guidance, ALIGN improves both interpretability and generalizability, showing its superiority across various settings. Experiments on the two domain generalization benchmarks, VLCS and Terra Incognita, show that ALIGN consistently outperforms six strong baselines in both in-distribution and out-of-distribution settings. Besides, ALIGN also yields superior explanation quality concerning sufficiency and comprehensiveness, highlighting its effectiveness in producing accurate and interpretable models.
- Abstract(参考訳): 説明誘導学習(EGL)は、特にコンピュータビジョンタスクにおいて、モデル予測と解釈可能な推論との整合性を示す。
しかし、ほとんどのアプローチはモデル説明を監督するために外部アノテーションやヒューリスティックに基づくセグメンテーションに依存しており、ノイズがあり、不正確でスケールが難しい。
本研究では、低品質の監視信号がモデル性能を向上するよりも、モデル性能を劣化させることができるという実証的および理論的証拠を提供する。
そこで本研究では,分類器とマスカを反復的に訓練する新しいフレームワークであるALIGNを提案する。
マスカは、情報領域をハイライトするソフトなタスク関連マスクの作成を学習し、分類器は、その唾液マップと学習マスクとの間の予測精度とアライメントの両方に最適化される。
高品質マスクをガイダンスとして活用することにより、ALIGNは解釈可能性と一般化性の両方を改善し、様々な設定でその優位性を示す。
2つの領域一般化ベンチマークであるVLCSとTerra Incognitaの実験では、ALIGNは分布内および分布外の両方において、6つの強いベースラインを一貫して上回っている。
さらに、ALIGNは、十分性や包括性に関する優れた説明品質をもたらし、正確で解釈可能なモデルを作成する上での有効性を強調している。
関連論文リスト
- Explaining Fine Tuned LLMs via Counterfactuals A Knowledge Graph Driven Framework [13.533352973355013]
Low-Rank Adaptation (LoRA)は、大きな言語モデルでドメイン固有の知識を驚くほど効率よく取得することを可能にする。
本研究は,知識グラフを基盤としたファクトファクトを介し,微調整 LLM を記述した新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-25T14:37:40Z) - AIM: Amending Inherent Interpretability via Self-Supervised Masking [57.17600766859953]
自己スーパーバイザード・マスキング(AIM)によるインテリジェント・インタプリタビリティの向上について提案する。
AIMは、追加のアノテーションを必要とせずに、刺激的な代替品よりも真の機能の利用を促進する。
我々は、分布外一般化ときめ細かい視覚的理解の両方をテストする、さまざまな挑戦的なデータセットでAIMを検証する。
論文 参考訳(メタデータ) (2025-08-15T14:29:59Z) - GrAInS: Gradient-based Attribution for Inference-Time Steering of LLMs and VLMs [56.93583799109029]
GrAInSは推論時ステアリングのアプローチで、言語のみのモデルと視覚言語の両方のモデルとタスクで動作する。
推論中、GrAInSはトークンレベルの属性信号によって誘導されるトランスフォーマー層で隠されたアクティベーションを隠蔽し、アクティベーションを正規化し、表現スケールを保存する。
微調整と既存のステアリングベースラインの両方を一貫して上回る。
論文 参考訳(メタデータ) (2025-07-24T02:34:13Z) - Simple yet Effective Semi-supervised Knowledge Distillation from Vision-Language Models via Dual-Head Optimization [47.38380084735716]
大規模な画像テキストペアで事前訓練された視覚教師付きモデル(VLM)は、顕著なゼロ/フェーショット性能を示した。
知識蒸留(KD)は、VLM能力を伝達するための自然な枠組みを提供するが、監督と蒸留の損失の間の勾配の衝突に悩まされる。
本稿では,異なる信号に対して2つの予測ヘッドを導入するDual-Head Optimization (DHO)を提案する。
論文 参考訳(メタデータ) (2025-05-12T15:39:51Z) - Harmonizing Visual Representations for Unified Multimodal Understanding and Generation [53.01486796503091]
我々は,共有MARエンコーダによる理解と生成タスクを調和させる統合自己回帰フレームワークであるemphHarmonを提案する。
HarmonはGenEval、MJHQ30K、WISEベンチマークで最先端の画像生成結果を達成する。
論文 参考訳(メタデータ) (2025-03-27T20:50:38Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - CRoFT: Robust Fine-Tuning with Concurrent Optimization for OOD Generalization and Open-Set OOD Detection [42.33618249731874]
トレーニングデータにおけるエネルギースコアの最大化は、ドメイン一貫性のあるヘッセンの分類損失につながることを示す。
我々は,両タスクの同時最適化を可能にする統合された微調整フレームワークを開発した。
論文 参考訳(メタデータ) (2024-05-26T03:28:59Z) - Understanding Masked Autoencoders via Hierarchical Latent Variable
Models [109.35382136147349]
Masked Autoencoder (MAE) は近年,様々な視覚タスクにおいて顕著な成功を収めている。
MAEに関する興味深い経験的観察の出現にもかかわらず、理論的に原理化された理解はいまだに欠如している。
論文 参考訳(メタデータ) (2023-06-08T03:00:10Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。