論文の概要: Transferring Visual Explainability of Self-Explaining Models through Task Arithmetic
- arxiv url: http://arxiv.org/abs/2507.04380v1
- Date: Sun, 06 Jul 2025 12:55:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.150052
- Title: Transferring Visual Explainability of Self-Explaining Models through Task Arithmetic
- Title(参考訳): タスク算術による自己説明モデルの視覚的説明可能性の伝達
- Authors: Yuya Yoshikawa, Ryotaro Shimizu, Takahiro Kawashima, Yuki Saito,
- Abstract要約: 両方のタスクを単一の推論で実行する自己説明モデルは効果的であるが、それらのトレーニングは実質的なラベル付けと計算コストを発生させる。
本研究では,学習した自己説明型モデルの視覚的説明可能性について,タスク演算フレームワークに基づく対象領域に伝達する手法を提案する。
- 参考スコア(独自算出の注目度): 8.918419734720613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In scenarios requiring both prediction and explanation efficiency for image classification, self-explaining models that perform both tasks in a single inference are effective. However, their training incurs substantial labeling and computational costs. This study aims to tackle the issue by proposing a method to transfer the visual explainability of self-explaining models, learned in a source domain, to a target domain based on a task arithmetic framework. Specifically, we construct a self-explaining model by extending image classifiers based on a vision-language pretrained model. We then define an \emph{explainability vector} as the difference between model parameters trained on the source domain with and without explanation supervision. Based on the task arithmetic framework, we impart explainability to a model trained only on the prediction task in the target domain by applying the explainability vector. Experimental results on various image classification datasets demonstrate that, except for transfers between some less-related domains, visual explainability can be successfully transferred from source to target domains, improving explanation quality in the target domain without sacrificing classification accuracy. Furthermore, we show that the explainability vector learned on a large and diverse dataset like ImageNet, extended with explanation supervision, exhibits universality and robustness, improving explanation quality on nine out of ten different target datasets. We also find that the explanation quality achieved with a single model inference is comparable to that of Kernel SHAP, which requires 150 model inferences.
- Abstract(参考訳): 画像分類のための予測と説明の効率の両方を必要とするシナリオでは、単一の推論で両方のタスクを実行する自己説明モデルが効果的である。
しかし、彼らのトレーニングは、かなりのラベリングと計算コストをもたらしている。
本研究の目的は,学習した自己説明型モデルの視覚的説明可能性を,タスク演算フレームワークに基づく対象領域に伝達する手法を提案することである。
具体的には、視覚言語事前学習モデルに基づいて、画像分類器を拡張して自己説明モデルを構築する。
次に、説明監督なしでソースドメイン上でトレーニングされたモデルパラメータの差として、emph{explainability vector}を定義する。
タスク演算の枠組みに基づいて,対象領域の予測タスクにのみ訓練されたモデルに対して,説明可能性ベクトルを適用して説明可能性を与える。
画像分類データセットを用いた実験結果から, 対象領域間での移動を除き, 視覚的説明可能性の向上が図られ, 分類精度を犠牲にすることなく, 対象領域における説明精度の向上が図られた。
さらに、ImageNetのような大規模で多様なデータセットで学習した説明可能性ベクトルは、説明監督によって拡張され、普遍性と堅牢性を示し、10の異なるターゲットデータセットのうち9つの説明品質を改善していることを示す。
また、1つのモデル推論で達成された説明品質は、150のモデル推論を必要とするKernel SHAPに匹敵する。
関連論文リスト
- Towards a Unified Representation Evaluation Framework Beyond Downstream Tasks [9.390951257874187]
モデル表現における情報性、等分散、不変性、および要因の分散を定量化するための標準化されたプロトコルを導入する。
類似のダウンストリーム性能を持つモデルからの表現は、これらの属性に関して、かなり異なる振る舞いをすることができる。
論文 参考訳(メタデータ) (2025-05-09T17:58:52Z) - From Visual Explanations to Counterfactual Explanations with Latent Diffusion [11.433402357922414]
本稿では,近年の顕著な研究における2つの課題に対処するための新しいアプローチを提案する。
まず、ターゲットクラスの"概念"と元のクラスを区別するために、どの特定の反事実的特徴が重要かを決定する。
第二に、非ロバスト分類器に対して、対向的に堅牢なモデルのサポートに頼ることなく、重要な説明を提供する。
論文 参考訳(メタデータ) (2025-04-12T13:04:00Z) - How to Probe: Simple Yet Effective Techniques for Improving Post-hoc Explanations [69.72654127617058]
ポストホック重要属性法は、ディープニューラルネットワーク(DNN)を"説明"するための一般的なツールである
この研究において、我々はこの概念に挑戦する経験的証拠を提示する。
トレーニング済みモデルの分類レイヤのトレーニング詳細が重要な役割を果たすことを示す。
論文 参考訳(メタデータ) (2025-03-01T22:25:11Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。