論文の概要: Convolutional Neural Network Interpretability with General Pattern
Theory
- arxiv url: http://arxiv.org/abs/2102.04247v1
- Date: Fri, 5 Feb 2021 07:11:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:07:01.667109
- Title: Convolutional Neural Network Interpretability with General Pattern
Theory
- Title(参考訳): 一般パターン理論による畳み込みニューラルネットワークの解釈性
- Authors: Erico Tjoa, Guan Cuntai
- Abstract要約: ディープニューラルネットワーク(DNN)の解釈性の向上には、説明可能な使用量の増加、アルゴリズムのメンテナンスの改善、改善など、実用的なメリットがある。
我々は、Ulf Grenanderによって定式化されたパターン理論を用いることを提案する。
U-Netのような構造はResNetに拡張ブロック(EB)をアタッチすることで形成され、セマンティックセグメンテーションのようなタスクを実行できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ongoing efforts to understand deep neural networks (DNN) have provided many
insights, but DNNs remain incompletely understood. Improving DNN's
interpretability has practical benefits, such as more accountable usage, better
algorithm maintenance and improvement. The complexity of dataset structure may
contribute to the difficulty in solving interpretability problem arising from
DNN's black-box mechanism. Thus, we propose to use pattern theory formulated by
Ulf Grenander, in which data can be described as configurations of fundamental
objects that allow us to investigate convolutional neural network's (CNN)
interpretability in a component-wise manner. Specifically, U-Net-like structure
is formed by attaching expansion blocks (EB) to ResNet, allowing it to perform
semantic segmentation-like tasks at its EB output channels designed to be
compatible with pattern theory's configurations. Through these modules, some
heatmap-based explainable artificial intelligence (XAI) methods will be shown
to extract explanations w.r.t individual generators that make up a single data
sample, potentially reducing the impact of dataset's complexity to
interpretability problem. The MNIST-equivalent dataset containing pattern
theory's elements is designed to facilitate smoother entry into this framework,
along which the theory's generative aspect is naturally presented.
- Abstract(参考訳): 深いニューラルネットワーク(DNN)を理解するための継続的な努力は多くの洞察を与えてきたが、DNNは未だに理解されていない。
DNNの解釈性の改善には、説明可能な使用量の増加、アルゴリズムのメンテナンスの改善、改善など、実用的なメリットがある。
データセット構造の複雑さは、DNNのブラックボックス機構から生じる解釈可能性問題の解決の難しさに寄与する可能性がある。
そこで本論文では,Ulf Grenander氏によって定式化されたパターン理論を用いて,畳み込みニューラルネットワーク(CNN)の解釈可能性について,構成的に調査できる基本オブジェクトの構成として記述する。
具体的には、ResNetに拡張ブロック(EB)を取り付け、パターン理論の構成と互換性を持つように設計されたEB出力チャネルでセマンティックセグメンテーションライクなタスクを実行できるようにすることで、U-Netライクな構造を形成する。
これらのモジュールを通じて、いくつかのヒートマップベースの説明可能な人工知能(XAI)メソッドが、単一のデータサンプルを構成する個々のジェネレータの説明を抽出し、データセットの複雑さと解釈可能性の問題の影響を低減する。
パターン理論の要素を含むMNIST等価データセットは、理論の生成的側面が自然に提示されるこのフレームワークへのよりスムーズな参入を促進するように設計されています。
関連論文リスト
- Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Random Graph-Based Neuromorphic Learning with a Layer-Weaken Structure [4.477401614534202]
我々は,ランダムグラフ理論を実践的な意味でNNモデルに変換し,各ニューロンの入出力関係を明らかにする。
この低演算コストアプローチでは、ニューロンはいくつかのグループに割り当てられ、接続関係はそれらに属するランダムグラフの一様表現とみなすことができる。
本稿では,複数のRGNN間の情報インタラクションを含む共同分類機構を開発し,教師付き学習における3つのベンチマークタスクの大幅な性能向上を実現する。
論文 参考訳(メタデータ) (2021-11-17T03:37:06Z) - Adaptive Explainable Neural Networks (AxNNs) [8.949704905866888]
我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。
予測性能向上のために,一般化された付加的モデルネットワークと付加的インデックスモデルからなる構造化ニューラルネットワークを構築した。
本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。
論文 参考訳(メタデータ) (2020-04-05T23:40:57Z) - Investigating the Compositional Structure Of Deep Neural Networks [1.8899300124593645]
本稿では,一方向線形活性化関数の構成構造に基づく新しい理論的枠組みを提案する。
予測ラベルと予測に使用する特定の(線形)変換の両方に関して、入力データのインスタンスを特徴付けることができる。
MNISTデータセットの予備テストでは、ニューラルネットワークの内部表現における類似性に関して、入力インスタンスをグループ化することが可能である。
論文 参考訳(メタデータ) (2020-02-17T14:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。