論文の概要: DProtoNet: Decoupling the inference module and the explanation module
enables neural networks to have better accuracy and interpretability
- arxiv url: http://arxiv.org/abs/2210.08336v1
- Date: Sat, 15 Oct 2022 17:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:10:40.489080
- Title: DProtoNet: Decoupling the inference module and the explanation module
enables neural networks to have better accuracy and interpretability
- Title(参考訳): dprotonet:推論モジュールと説明モジュールを分離することで、ニューラルネットワークの精度と解釈性が向上する
- Authors: Yitao Peng, Yihang Liu, Longzhen Yang, Lianghua He
- Abstract要約: 従来の方法では、ニューラルネットワークのアーキテクチャを変更することで、ネットワークは人間の推論プロセスをシミュレートする。
本稿では,DProtoNet(Decoupling Prototypeal Network)を提案する。
解釈モジュールからニューラルネットワーク推論モジュールを分離し、解釈可能なネットワークの特定のアーキテクチャ上の制限を取り除く。
- 参考スコア(独自算出の注目度): 5.333582981327497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The interpretation of decisions made by neural networks is the focus of
recent research. In the previous method, by modifying the architecture of the
neural network, the network simulates the human reasoning process, that is, by
finding the decision elements to make decisions, so that the network has the
interpretability of the reasoning process. The specific interpretable
architecture will limit the fitting space of the network, resulting in a
decrease in the classification performance of the network, unstable
convergence, and general interpretability. We propose DProtoNet (Decoupling
Prototypical network), it stores the decision basis of the neural network by
using feature masks, and it uses Multiple Dynamic Masks (MDM) to explain the
decision basis for feature mask retention. It decouples the neural network
inference module from the interpretation module, and removes the specific
architectural limitations of the interpretable network, so that the
decision-making architecture of the network retains the original network
architecture as much as possible, making the neural network more expressive,
and greatly improving the interpretability. Classification performance and
interpretability of explanatory networks. We propose to replace the prototype
learning of a single image with the prototype learning of multiple images,
which makes the prototype robust, improves the convergence speed of network
training, and makes the accuracy of the network more stable during the learning
process. We test on multiple datasets, DProtoNet can improve the accuracy of
recent advanced interpretable network models by 5% to 10%, and its
classification performance is comparable to that of backbone networks without
interpretability. It also achieves the state of the art in interpretability
performance.
- Abstract(参考訳): ニューラルネットワークによる決定の解釈は、最近の研究の焦点である。
前述した手法では、ニューラルネットワークのアーキテクチャを変更することで、判断する決定要素を見つけ、推論プロセスの解釈可能性を持つ人間の推論プロセスをシミュレートする。
特定の解釈可能なアーキテクチャはネットワークの適合空間を制限し、ネットワークの分類性能の低下、不安定な収束、一般的な解釈可能性をもたらす。
本稿では,DProtoNet (Decoupling Prototypeal Network)を提案し,特徴マスクを用いてニューラルネットワークの決定基盤を記憶し,特徴マスク保持の決定基盤を説明するためにMultiple Dynamic Masks (MDM) を用いる。
解釈モジュールからニューラルネットワーク推論モジュールを分離し、解釈可能なネットワークの特定のアーキテクチャ上の制限を取り除くことにより、ネットワークの決定アーキテクチャが元のネットワークアーキテクチャを可能な限り保持し、ニューラルネットワークをより表現力良くし、解釈可能性を大幅に改善する。
説明ネットワークの分類性能と解釈可能性
本稿では,1つの画像のプロトタイプ学習を,複数の画像のプロトタイプ学習に置き換えることを提案する。プロトタイプは堅牢化され,ネットワークトレーニングの収束速度が向上し,学習プロセス中にネットワークの精度をより安定させる。
複数のデータセットでテストし、dprotonetは、最近の高度な解釈可能なネットワークモデルの精度を5%から10%向上させ、その分類性能は、解釈不能なバックボーンネットワークと同等である。
また、解釈性能における芸術の水準も達成している。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - MDM:Visual Explanations for Neural Networks via Multiple Dynamic Mask [5.333582981327497]
本稿では,推論プロセスの解釈可能性を備えた汎用のサリエンシグラフクエリ手法であるMultiple Dynamic Mask(MDM)を提案する。
MDMサリエンシマップ探索アルゴリズムでは、様々なサリエンシマップ探索法の性能指標と、トレーニングされたニューラルネットワークとしてResNetとDenseNetを用いてMDMの性能指標を実験的に比較した。
論文 参考訳(メタデータ) (2022-07-17T00:25:16Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z) - Inferring Convolutional Neural Networks' accuracies from their
architectural characterizations [0.0]
CNNのアーキテクチャと性能の関係について検討する。
本稿では,2つのコンピュータビジョンに基づく物理問題において,その特性がネットワークの性能を予測できることを示す。
我々は機械学習モデルを用いて、トレーニング前にネットワークが一定のしきい値精度よりも優れた性能を発揮できるかどうかを予測する。
論文 参考訳(メタデータ) (2020-01-07T16:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。