論文の概要: Towards credible visual model interpretation with path attribution
- arxiv url: http://arxiv.org/abs/2305.14395v1
- Date: Tue, 23 May 2023 06:23:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 00:24:56.309951
- Title: Towards credible visual model interpretation with path attribution
- Title(参考訳): 経路帰属を伴う信頼できる視覚モデル解釈に向けて
- Authors: Naveed Akhtar, Muhammad A. A. K. Jalwana
- Abstract要約: path attributionフレームワークは、その公理的な性質から、ポストホックモデルの解釈ツールの中でも際立っている。
近年の進歩は、このフレームワークがいまだに反直感的な結果に悩まされていることを示している。
本研究では,視覚モデル解釈が経路属性の公理的特性を無効化できる状況を回避するためのスキームを考案する。
- 参考スコア(独自算出の注目度): 24.86176236641865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Originally inspired by game-theory, path attribution framework stands out
among the post-hoc model interpretation tools due to its axiomatic nature.
However, recent developments show that this framework can still suffer from
counter-intuitive results. Moreover, specifically for deep visual models, the
existing path-based methods also fall short on conforming to the original
intuitions that are the basis of the claimed axiomatic properties of this
framework. We address these problems with a systematic investigation, and
pinpoint the conditions in which the counter-intuitive results can be avoided
for deep visual model interpretation with the path attribution strategy. We
also devise a scheme to preclude the conditions in which visual model
interpretation can invalidate the axiomatic properties of path attribution.
These insights are combined into a method that enables reliable visual model
interpretation. Our findings are establish empirically with multiple datasets,
models and evaluation metrics. Extensive experiments show a consistent
performance gain of our method over the baselines.
- Abstract(参考訳): 元々はゲーム理論にインスパイアされたパス属性フレームワークは、その公理的な性質からポストホックモデルの解釈ツールの中でも際立っている。
しかし、近年の進歩は、このフレームワークがいまだに反直感的な結果に悩まされていることを示している。
さらに、特に深い視覚モデルでは、既存のパスベース手法は、このフレームワークの主張された公理的性質の基盤である元の直観に従うことにも不足している。
我々は,これらの問題を系統的調査によって解決し,経路帰属戦略を用いた深い視覚モデル解釈において,直観的な結果が避けられる条件を突き止めた。
また,視覚モデル解釈が経路帰属の公理的性質を無効にできる条件を回避するためのスキームを考案する。
これらの洞察は、信頼できる視覚的モデル解釈を可能にする方法に結合される。
この結果は,複数のデータセット,モデル,評価指標を用いて実証的に確立される。
広範な実験により,本手法はベースライン上で一貫性のある性能向上を示す。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Hierarchical Bias-Driven Stratification for Interpretable Causal Effect
Estimation [1.6874375111244329]
BICauseTreeは、自然実験が局所的に発生するクラスタを識別する解釈可能なバランシング手法である。
合成および現実的なデータセットを用いて手法の性能を評価し、バイアス-解釈可能性トレードオフを探索し、既存の手法に匹敵することを示す。
論文 参考訳(メタデータ) (2024-01-31T10:58:13Z) - Fixing confirmation bias in feature attribution methods via semantic
match [4.733072355085082]
モデル上の仮説が特徴属性によって確認されるかどうかを検証するためには,構造的アプローチが必要である,と我々は主張する。
これは、人間の概念と(サブシンボリックな)説明の「セマンティックマッチ」と呼ばれるものです。
論文 参考訳(メタデータ) (2023-07-03T09:50:08Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Planning with Diffusion for Flexible Behavior Synthesis [125.24438991142573]
我々は、できるだけ多くの軌道最適化パイプラインをモデリング問題に折り畳むことがどう見えるか検討する。
我々の技術的アプローチの核心は、軌道を反復的にデノベーションすることで計画する拡散確率モデルにある。
論文 参考訳(メタデータ) (2022-05-20T07:02:03Z) - Neuro-symbolic Natural Logic with Introspective Revision for Natural
Language Inference [17.636872632724582]
イントロスペクティブ・リビジョンを用いた強化学習に基づくニューロシンボリック・ナチュラル・ロジック・フレームワークを提案する。
提案モデルには解釈可能性があり, 単調性推論, 体系的一般化, 解釈可能性に優れた能力を示す。
論文 参考訳(メタデータ) (2022-03-09T16:31:58Z) - Distributional Depth-Based Estimation of Object Articulation Models [21.046351215949525]
本研究では,奥行き画像から直接,調音モデルパラメータの分布を効率よく学習する手法を提案する。
私たちのコアコントリビューションには、剛体変換に対する分布の新しい表現が含まれています。
本稿では,カテゴリに依存しない調音モデル推定を行う新しい深層学習手法DUST-netを提案する。
論文 参考訳(メタデータ) (2021-08-12T17:44:51Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。