論文の概要: IDGI: A Framework to Eliminate Explanation Noise from Integrated
Gradients
- arxiv url: http://arxiv.org/abs/2303.14242v1
- Date: Fri, 24 Mar 2023 19:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 21:05:00.153436
- Title: IDGI: A Framework to Eliminate Explanation Noise from Integrated
Gradients
- Title(参考訳): IDGI:統合勾配から説明ノイズを除去するフレームワーク
- Authors: Ruo Yang, Binghui Wang, Mustafa Bilgic
- Abstract要約: 統合グラディエンス(IG)とその変種は、ディープニューラルネットワークの決定を解釈するためのよく知られたテクニックである。
IGベースのアプローチは最先端のパフォーマンスを実現するが、しばしばノイズを説明精度マップに統合する。
本稿では,分析結果に基づいて説明ノイズを低減するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 19.268778433411676
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Integrated Gradients (IG) as well as its variants are well-known techniques
for interpreting the decisions of deep neural networks. While IG-based
approaches attain state-of-the-art performance, they often integrate noise into
their explanation saliency maps, which reduce their interpretability. To
minimize the noise, we examine the source of the noise analytically and propose
a new approach to reduce the explanation noise based on our analytical
findings. We propose the Important Direction Gradient Integration (IDGI)
framework, which can be easily incorporated into any IG-based method that uses
the Reimann Integration for integrated gradient computation. Extensive
experiments with three IG-based methods show that IDGI improves them
drastically on numerous interpretability metrics.
- Abstract(参考訳): 統合勾配(ig)とその変種は、ディープニューラルネットワークの決定を解釈するためのよく知られた技術である。
IGベースのアプローチは最先端のパフォーマンスを実現するが、しばしばノイズを説明相性マップに統合し、解釈可能性を低減する。
ノイズを最小化するために, ノイズ源を解析的に検討し, 解析結果に基づいて説明ノイズを低減するための新しい手法を提案する。
本稿では,Reimann 積分を積分勾配計算に用いる任意の IG 法に容易に組み込むことができる重要方向勾配積分(IDGI)フレームワークを提案する。
3つのIGベースの手法による大規模な実験により、IDGIは多数の解釈可能性指標を大幅に改善することが示された。
関連論文リスト
- Rethinking the Principle of Gradient Smooth Methods in Model Explanation [2.6819730646697972]
グラディエント・スムーシング(Gradient Smoothing)は、勾配モデル記述法における雑音の低減に有効な手法である。
これらの知見に基づいて適応的な勾配平滑化手法AdaptGradを提案する。
論文 参考訳(メタデータ) (2024-10-10T08:24:27Z) - Transforming gradient-based techniques into interpretable methods [3.6763102409647526]
GAD(Gradient Artificial Distancing)を勾配に基づく技術支援フレームワークとして紹介する。
その主な目的は、階級の区別を確立することによって、影響力のある地域をアクセント化することである。
隠蔽画像に関する実証研究は、この手法によって同定された領域が、クラス分化を促進する上で重要な役割を担っていることを証明している。
論文 参考訳(メタデータ) (2024-01-25T09:24:19Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Gold: A Global and Local-aware Denoising Framework for Commonsense
Knowledge Graph Noise Detection [44.161035962976555]
Commonsense Knowledge Graphs (CSKG) は、常識推論に不可欠であるが、人間のアノテーションによってそれらを構築するにはコストがかかる。
金(Global and Local-Aware Denoising)は、CSKGの実体的意味情報、グローバルルール、および局所構造情報を含むCSKGの認知フレームワークである。
実験結果から,Goldは合成雑音CSKGベンチマークにおいて,ノイズ検出タスクにおけるベースライン法をすべて上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-18T14:43:07Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z) - NoiseGrad: enhancing explanations by introducing stochasticity to model
weights [4.735227614605093]
NoiseGradは、入力データの代わりに重みにノイズを加える手法に依存しない説明強調法である。
提案手法を,異なるデータセットを含む様々な実験により検討する。
論文 参考訳(メタデータ) (2021-06-18T15:22:33Z) - Guided Integrated Gradients: An Adaptive Path Method for Removing Noise [9.792727625917083]
統合グラディエンツ(IG)は、ディープニューラルネットワークのための一般的な特徴属性法である。
問題の原因の1つは、IG経路に沿ったノイズの蓄積である。
我々は、帰属経路自体に適応することを提案し、画像だけでなく、説明されるモデルにも経路を条件付けする。
論文 参考訳(メタデータ) (2021-06-17T20:00:55Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。