論文の概要: Negative Flux Aggregation to Estimate Feature Attributions
- arxiv url: http://arxiv.org/abs/2301.06989v2
- Date: Sat, 13 May 2023 08:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 23:35:49.530923
- Title: Negative Flux Aggregation to Estimate Feature Attributions
- Title(参考訳): 推定特徴属性に対する負のフラックス凝集
- Authors: Xin Li, Deng Pan, Chengyin Li, Yao Qiang and Dongxiao Zhu
- Abstract要約: セキュリティや透明性の懸念が高まる中で、ディープニューラルネットワーク(DNN)の動作を理解する必要性が高まっている。
DNNの説明可能性を高めるために,分岐とフラックスを用いた予測課題に対する入力特徴の属性を推定する。
ベクトル解析における発散定理に着想を得て,新しい負フラックス凝集法(NeFLAG)の定式化と,帰属写像を推定するための効率的な近似アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 15.411534490483495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are increasing demands for understanding deep neural networks' (DNNs)
behavior spurred by growing security and/or transparency concerns. Due to
multi-layer nonlinearity of the deep neural network architectures, explaining
DNN predictions still remains as an open problem, preventing us from gaining a
deeper understanding of the mechanisms. To enhance the explainability of DNNs,
we estimate the input feature's attributions to the prediction task using
divergence and flux. Inspired by the divergence theorem in vector analysis, we
develop a novel Negative Flux Aggregation (NeFLAG) formulation and an efficient
approximation algorithm to estimate attribution map. Unlike the previous
techniques, ours doesn't rely on fitting a surrogate model nor need any path
integration of gradients. Both qualitative and quantitative experiments
demonstrate a superior performance of NeFLAG in generating more faithful
attribution maps than the competing methods. Our code is available at
\url{https://github.com/xinli0928/NeFLAG}
- Abstract(参考訳): セキュリティや透明性の懸念が高まる中で、ディープニューラルネットワーク(DNN)の動作を理解する必要性が高まっている。
ディープニューラルネットワークアーキテクチャの多層非線形性のため、DNN予測の説明は依然として未解決の問題であり、メカニズムの深い理解を妨げている。
DNNの説明可能性を高めるために,分岐とフラックスを用いた予測課題に対する入力特徴の属性を推定する。
ベクトル解析における発散定理に着想を得て,新しい負流束集合(neflag)定式化法と帰属写像を推定するための効率的な近似アルゴリズムを開発した。
以前の技術とは異なり、私たちの手法はサーロゲートモデルに適合したり、勾配のパス統合を必要としたりしません。
定性的かつ定量的な実験は、競合する方法よりも忠実な帰属写像を生成する上で、NeFLAGの優れた性能を示す。
我々のコードは \url{https://github.com/xinli0928/NeFLAG} で入手できる。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Empowering Counterfactual Reasoning over Graph Neural Networks through
Inductivity [7.094238868711952]
グラフニューラルネットワーク(GNN)には、薬物発見、レコメンデーションエンジン、チップ設計など、さまざまな実用的応用がある。
因果推論は、GNNの入力グラフの変更を最小限に抑えて予測を変更するために用いられる。
論文 参考訳(メタデータ) (2023-06-07T23:40:18Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Explainable Artificial Intelligence for Bayesian Neural Networks:
Towards trustworthy predictions of ocean dynamics [0.0]
ニューラルネットワークの信頼性は、不確実性を表現したり、スキルを説明する能力が欠けているため、しばしば疑問視される。
気候変動の応用など、高い利害関係の意思決定においてニューラルネットワークの利用が増加していることを考えると、これは問題となる可能性がある。
我々は、パラメータが決定論的ではなく分布であるベイズニューラルネットワーク(BNN)の実装に成功し、説明可能なAI(XAI)技術の新しい実装を適用することにより、両方の問題に対処する。
論文 参考訳(メタデータ) (2022-04-30T08:35:57Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Streaming Probabilistic Deep Tensor Factorization [27.58928876734886]
本稿では,ストリーム確率型Deep tEnsoR分解法であるSPIDERを提案する。
仮定密度フィルタおよび予測伝搬フレームワークにおける効率的な後部推論アルゴリズムを開発した。
実世界の4つのアプリケーションにアプローチの利点を示す。
論文 参考訳(メタデータ) (2020-07-14T21:25:39Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。