論文の概要: Pathwise Explanation of ReLU Neural Networks
- arxiv url: http://arxiv.org/abs/2506.18037v1
- Date: Sun, 22 Jun 2025 13:41:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.713101
- Title: Pathwise Explanation of ReLU Neural Networks
- Title(参考訳): ReLUニューラルネットワークのパスワイズ説明
- Authors: Seongwoo Lim, Won Jo, Joohyung Lee, Jaesik Choi,
- Abstract要約: 本稿では,意思決定経路に関わる隠蔽単位の部分集合を考慮した新しい手法を提案する。
このパスワイズな説明は、入力と意思決定プロセスの関係について、より明確で一貫性のある理解を提供する。
- 参考スコア(独自算出の注目度): 20.848391252661074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have demonstrated a wide range of successes, but their ``black box" nature raises concerns about transparency and reliability. Previous research on ReLU networks has sought to unwrap these networks into linear models based on activation states of all hidden units. In this paper, we introduce a novel approach that considers subsets of the hidden units involved in the decision making path. This pathwise explanation provides a clearer and more consistent understanding of the relationship between the input and the decision-making process. Our method also offers flexibility in adjusting the range of explanations within the input, i.e., from an overall attribution input to particular components within the input. Furthermore, it allows for the decomposition of explanations for a given input for more detailed explanations. Experiments demonstrate that our method outperforms others both quantitatively and qualitatively.
- Abstract(参考訳): ニューラルネットワークは幅広い成功を収めていますが、その‘ブラックボックス’という性質は、透明性と信頼性に関する懸念を引き起こします。
従来のReLUネットワークの研究は、これらのネットワークをすべての隠れユニットの活性化状態に基づいて線形モデルに解き放つことを試みた。
本稿では,意思決定経路に関わる隠蔽単位のサブセットを考慮した新しい手法を提案する。
このパスワイズな説明は、入力と意思決定プロセスの関係について、より明確で一貫性のある理解を提供する。
提案手法は,入力内の説明範囲,すなわち全体帰属入力から入力内の特定のコンポーネントへの説明範囲の調整にも柔軟性を提供する。
さらに、より詳細な説明のために、与えられた入力に対する説明の分解を可能にする。
実験により,本手法は定量的にも定性的にも性能的にも優れていることが示された。
関連論文リスト
- Perturbation on Feature Coalition: Towards Interpretable Deep Neural Networks [0.1398098625978622]
ディープニューラルネットワーク(DNN)の“ブラックボックス”という性質は、透明性と信頼性を損なう。
本稿では,ネットワークの深い情報を利用して相関した特徴を抽出する,特徴連立による摂動に基づく解釈を提案する。
論文 参考訳(メタデータ) (2024-08-23T22:44:21Z) - Network Inversion of Convolutional Neural Nets [3.004632712148892]
ニューラルネットワークは、さまざまなアプリケーションにまたがる強力なツールとして登場したが、意思決定プロセスはしばしば不透明である。
ネットワークの反転技術は、これらのブラックボックスの中を覗くことができるソリューションを提供します。
本稿では,厳密な条件付きジェネレータを用いたネットワークインバージョンに対する簡易かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:53:21Z) - Manipulating Feature Visualizations with Gradient Slingshots [53.94925202421929]
特徴可視化(FV)は、ディープニューラルネットワーク(DNN)で学んだ概念を解釈するための広く使われている手法である。
本稿では,モデルアーキテクチャを変更したり,性能を著しく劣化させたりすることなくFVの操作を可能にする新しい手法,Gradient Slingshotsを提案する。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Towards Better Visualizing the Decision Basis of Networks via Unfold and
Conquer Attribution Guidance [29.016425469068587]
本稿では,ネットワーク決定の妥当性を高める新しいフレームワークUnfold and Conquer Guidance(UCAG)を提案する。
UCAGは画像のスライスに対する自信に順応し、豊富な明確な解釈をもたらす。
いくつかのメトリクスで性能を検証するために、多数の評価を行います。
論文 参考訳(メタデータ) (2023-12-21T03:43:19Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z) - Forgetting Outside the Box: Scrubbing Deep Networks of Information
Accessible from Input-Output Observations [143.3053365553897]
本稿では、訓練された深層ネットワークからトレーニングデータのコホートへの依存を取り除く手順について述べる。
忘れられたコホートについて,クエリ毎にどれだけの情報を取り出すことができるか,という新たな境界を導入する。
我々は,ニューラルタンジェントカーネルにインスパイアされたDNNのアクティベーションとウェイトダイナミクスの接続を利用して,アクティベーションの情報を計算する。
論文 参考訳(メタデータ) (2020-03-05T23:17:35Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。