論文の概要: Explaining Explanations: Axiomatic Feature Interactions for Deep
Networks
- arxiv url: http://arxiv.org/abs/2002.04138v3
- Date: Tue, 30 Jun 2020 02:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:10:06.736837
- Title: Explaining Explanations: Axiomatic Feature Interactions for Deep
Networks
- Title(参考訳): 解説:ディープネットワークのための軸的特徴相互作用
- Authors: Joseph D. Janizek, Pascal Sturmfels, Su-In Lee
- Abstract要約: Integrated Hessianは、ニューラルネットワークにおける一対の特徴的相互作用を説明する統合グラディエントの拡張である。
特徴量が多い場合,提案手法は既存手法よりも高速であり,既存の定量的ベンチマークでは従来の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 10.635248457021495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown great promise in explaining neural network behavior. In
particular, feature attribution methods explain which features were most
important to a model's prediction on a given input. However, for many tasks,
simply knowing which features were important to a model's prediction may not
provide enough insight to understand model behavior. The interactions between
features within the model may better help us understand not only the model, but
also why certain features are more important than others. In this work, we
present Integrated Hessians, an extension of Integrated Gradients that explains
pairwise feature interactions in neural networks. Integrated Hessians overcomes
several theoretical limitations of previous methods to explain interactions,
and unlike such previous methods is not limited to a specific architecture or
class of neural network. Additionally, we find that our method is faster than
existing methods when the number of features is large, and outperforms previous
methods on existing quantitative benchmarks. Code available at
https://github.com/suinleelab/path_explain
- Abstract(参考訳): 最近の研究は、ニューラルネットワークの振る舞いを説明することに大きな期待を示している。
特に、特徴属性法は、与えられた入力に対するモデルの予測においてどの特徴が最も重要かを説明する。
しかし、多くのタスクにおいて、モデルの予測にどの機能が重要かを知るだけでは、モデルの振る舞いを理解するのに十分な洞察が得られない。
モデル内の機能間の相互作用は、モデルだけでなく、ある機能が他のものよりも重要である理由を理解するのに役立つかもしれません。
本稿では,ニューラルネットワークにおける相対的特徴的相互作用を説明する統合勾配の拡張である統合ヘッシアンについて述べる。
統合ヘッセンは、相互作用を説明するための従来の手法のいくつかの理論的制限を克服し、そのような従来の手法と異なり、特定のアーキテクチャやニューラルネットワークのクラスに限らない。
さらに,本手法は,機能数が大きい場合の既存手法よりも高速であり,既存の定量的ベンチマークでは従来手法よりも優れていた。
コードはhttps://github.com/suinleelab/path_explainで利用可能
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - On the Foundations of Shortcut Learning [20.53986437152018]
予測と可用性が形状モデルの特徴的利用とどのように相互作用するかを考察する。
線形モデルは比較的偏りがないが、ReLUやTanhの単位を持つ単一の隠蔽層を導入するとバイアスが生じる。
論文 参考訳(メタデータ) (2023-10-24T22:54:05Z) - Going Beyond Neural Network Feature Similarity: The Network Feature
Complexity and Its Interpretation Using Category Theory [64.06519549649495]
機能的に等価な機能と呼ぶものの定義を提供します。
これらの特徴は特定の変換の下で等価な出力を生成する。
反復的特徴マージ(Iterative Feature Merging)というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-10T16:27:12Z) - CQural: A Novel CNN based Hybrid Architecture for Quantum Continual
Machine Learning [0.0]
本研究では,新しい古典量子ニューラルネットを用いた連続学習において,破滅的な忘れを回避できることが示唆された。
また、モデルがこれらの説明でトレーニングされている場合、より良いパフォーマンスを与え、決定境界から遠く離れた特定の特徴を学ぶ傾向があります。
論文 参考訳(メタデータ) (2023-05-16T18:19:12Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Rethinking the Image Feature Biases Exhibited by Deep CNN Models [14.690952990358095]
人間の直感に基づいて2つの分類タスクを訓練し、予測されるバイアスを特定する。
特定の機能の組み合わせ効果は、通常、どの機能よりもはるかに影響が大きいと結論付けます。
論文 参考訳(メタデータ) (2021-11-03T08:04:06Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Learning Long-term Visual Dynamics with Region Proposal Interaction
Networks [75.06423516419862]
オブジェクト間およびオブジェクト環境間の相互作用を長距離にわたってキャプチャするオブジェクト表現を構築します。
単純だが効果的なオブジェクト表現のおかげで、我々の手法は先行手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-08-05T17:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。