論文の概要: Examining the causal structures of deep neural networks using
information theory
- arxiv url: http://arxiv.org/abs/2010.13871v1
- Date: Mon, 26 Oct 2020 19:53:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:03:49.030856
- Title: Examining the causal structures of deep neural networks using
information theory
- Title(参考訳): 情報理論を用いた深層ニューラルネットワークの因果構造の検討
- Authors: Simon Mattsson, Eric J. Michaud, Erik Hoel
- Abstract要約: ディープニューラルネットワーク(DNN)は、ノードとデータセット間の相互情報を解析するなど、入力に対する応答のレベルでしばしば検討される。
DNNは因果関係のレベルで調べて、ネットワーク自体のレイヤ内で"何をするのか"を探ることもできる。
本稿では,学習中のDNNの因果構造の変化を定量化し,追跡するための情報理論に基づくメトリクススイートを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are often examined at the level of their response
to input, such as analyzing the mutual information between nodes and data sets.
Yet DNNs can also be examined at the level of causation, exploring "what does
what" within the layers of the network itself. Historically, analyzing the
causal structure of DNNs has received less attention than understanding their
responses to input. Yet definitionally, generalizability must be a function of
a DNN's causal structure since it reflects how the DNN responds to unseen or
even not-yet-defined future inputs. Here, we introduce a suite of metrics based
on information theory to quantify and track changes in the causal structure of
DNNs during training. Specifically, we introduce the effective information (EI)
of a feedforward DNN, which is the mutual information between layer input and
output following a maximum-entropy perturbation. The EI can be used to assess
the degree of causal influence nodes and edges have over their downstream
targets in each layer. We show that the EI can be further decomposed in order
to examine the sensitivity of a layer (measured by how well edges transmit
perturbations) and the degeneracy of a layer (measured by how edge overlap
interferes with transmission), along with estimates of the amount of integrated
information of a layer. Together, these properties define where each layer lies
in the "causal plane" which can be used to visualize how layer connectivity
becomes more sensitive or degenerate over time, and how integration changes
during training, revealing how the layer-by-layer causal structure
differentiates. These results may help in understanding the generalization
capabilities of DNNs and provide foundational tools for making DNNs both more
generalizable and more explainable.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、ノードとデータセット間の相互情報を解析するなど、入力に対する応答のレベルでしばしば検討される。
しかし、DNNは因果関係のレベルで調べて、ネットワーク自体のレイヤ内で"何をするのか"を探ることもできる。
歴史的に、DNNの因果構造を分析することは、入力に対する応答を理解することよりも注意を引いている。
しかし、定義上は、一般化可能性はDNNの因果構造の機能でなければならない。
本稿では,学習中のDNNの因果構造の変化を定量化し,追跡するための情報理論に基づくメトリクススイートを紹介する。
具体的には、最大エントロピー摂動後の層入力と出力の相互情報であるフィードフォワードDNNの有効情報(EI)を紹介する。
EIは、各レイヤの下流ターゲットに対する因果影響ノードとエッジの程度を評価するために使用することができる。
EIは、層(エッジがいかに摂動を伝達するかによって測定される)の感度と層(エッジの重複が透過とどのように干渉するかによって測定される)の縮退度を、層統合情報の量の推定とともに、さらに分解できることが示される。
これらの特性を合わせて、各レイヤが"causal plane"にある場所を定義し、各レイヤの接続性が時間とともにより敏感になるか、あるいは縮退するかを視覚化し、トレーニング中に統合がどう変化するかを定義し、レイヤ毎の因果構造の違いを明らかにする。
これらの結果は、DNNの一般化能力を理解し、DNNをより一般化し、より説明しやすいものにするための基礎的なツールを提供するのに役立つかもしれない。
関連論文リスト
- Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Information-Theoretic Generalization Bounds for Deep Neural Networks [22.87479366196215]
ディープニューラルネットワーク(DNN)は、実用的な応用において、非常に優れた一般化能力を示す。
本研究の目的は,情報理論の一般化境界による教師あり学習における深度の影響とメリットを捉えることである。
論文 参考訳(メタデータ) (2024-04-04T03:20:35Z) - SAfER: Layer-Level Sensitivity Assessment for Efficient and Robust
Neural Network Inference [20.564198591600647]
ディープニューラルネットワーク(DNN)は、ほとんどのコンピュータビジョンタスクにおいて優れたパフォーマンスを示す。
自律運転や医療画像などの重要な応用には、その行動の調査も必要である。
DNNの属性は、DNNの予測と入力の関係を研究することである。
論文 参考訳(メタデータ) (2023-08-09T07:45:51Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Analysis of functional neural codes of deep learning models: Functional
Telescope Hypothesis [2.045460181566931]
自己組織化マップ(SOM)を用いて、ディープラーニングモデルの意思決定に関連する内部コードを分析する。
解析の結果, 入力層近傍の浅層は圧縮された空間に圧縮され, 出力層近傍の深層は特徴空間を拡大することが示唆された。
また、圧縮された特徴がDNNの脆弱性を敵の摂動に負わせる可能性があることを示す証拠も発見された。
論文 参考訳(メタデータ) (2022-05-22T23:14:27Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Understanding and Diagnosing Vulnerability under Adversarial Attacks [62.661498155101654]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,潜在変数の分類に使用される特徴を説明するために,新しい解釈可能性手法であるInterpretGANを提案する。
また、各層がもたらす脆弱性を定量化する最初の診断方法も設計する。
論文 参考訳(メタデータ) (2020-07-17T01:56:28Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。