論文の概要: Investigating the Compositional Structure Of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2002.06967v1
- Date: Mon, 17 Feb 2020 14:16:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:08:27.431904
- Title: Investigating the Compositional Structure Of Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークの構成構造の研究
- Authors: Francesco Craighero, Fabrizio Angaroni, Alex Graudenzi, Fabio Stella,
Marco Antoniotti
- Abstract要約: 本稿では,一方向線形活性化関数の構成構造に基づく新しい理論的枠組みを提案する。
予測ラベルと予測に使用する特定の(線形)変換の両方に関して、入力データのインスタンスを特徴付けることができる。
MNISTデータセットの予備テストでは、ニューラルネットワークの内部表現における類似性に関して、入力インスタンスをグループ化することが可能である。
- 参考スコア(独自算出の注目度): 1.8899300124593645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current understanding of deep neural networks can only partially explain
how input structure, network parameters and optimization algorithms jointly
contribute to achieve the strong generalization power that is typically
observed in many real-world applications. In order to improve the comprehension
and interpretability of deep neural networks, we here introduce a novel
theoretical framework based on the compositional structure of piecewise linear
activation functions. By defining a direct acyclic graph representing the
composition of activation patterns through the network layers, it is possible
to characterize the instances of the input data with respect to both the
predicted label and the specific (linear) transformation used to perform
predictions. Preliminary tests on the MNIST dataset show that our method can
group input instances with regard to their similarity in the internal
representation of the neural network, providing an intuitive measure of input
complexity.
- Abstract(参考訳): ディープニューラルネットワークの現在の理解は、入力構造、ネットワークパラメータ、最適化アルゴリズムが協調してどのようにして多くの実世界のアプリケーションで一般的に見られる強力な一般化能力を達成するのかを部分的に説明できるだけである。
本稿では,深層ニューラルネットワークの理解と解釈性を改善するために,一方向線形活性化関数の構成構造に基づく理論的枠組みを提案する。
ネットワーク層を通しての活性化パターンの構成を表す直接非巡回グラフを定義することにより、予測ラベルと予測を行うのに使用される特定の(線形)変換の両方に関して、入力データのインスタンスを特徴付けることができる。
MNISTデータセットの予備的なテストでは、ニューラルネットワークの内部表現における類似性に関して入力インスタンスをグループ化することができ、入力複雑性の直感的な指標を提供する。
関連論文リスト
- Relational Composition in Neural Networks: A Survey and Call to Action [54.47858085003077]
多くのニューラルネットは、データを「機能ベクトル」の線形結合として表現しているように見える。
我々は、この成功は関係性の構成を理解せずに不完全であると主張する。
論文 参考訳(メタデータ) (2024-07-19T20:50:57Z) - Credit Assignment for Trained Neural Networks Based on Koopman Operator
Theory [3.130109807128472]
ニューラルネットワークのクレジット割り当て問題は、最終的な出力に対する各ネットワークコンポーネントのクレジットを評価することを指す。
本稿では,ニューラルネットワークの信頼割当問題に対する線形力学の代替的視点について述べる。
典型的なニューラルネットワークを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-02T06:34:27Z) - Seeking Interpretability and Explainability in Binary Activated Neural Networks [2.828173677501078]
本稿では、回帰タスクの文脈において、解釈可能かつ説明可能な予測子としてバイナリ活性化ニューラルネットワークを用いることについて検討する。
本稿では,特徴量,隠れニューロン,さらには重みの相対的重要性を定量化するために,SHAP値の効率的な計算法を提案する。
論文 参考訳(メタデータ) (2022-09-07T20:11:17Z) - The Influence of Network Structural Preference on Node Classification
and Link Prediction [0.0]
本研究は,新しい機能抽象化手法,すなわちTransition Probabilities Matrix (TPM)を導入する。
提案手法は,3つの実世界のネットワーク上でノード識別・分類・リンク予測を行った。
論文 参考訳(メタデータ) (2022-08-07T12:56:28Z) - Learning Dynamics and Structure of Complex Systems Using Graph Neural
Networks [13.509027957413409]
我々は、非線形力学系の例から時系列に適合するようにグラフニューラルネットワークを訓練した。
学習した表現とモデルコンポーネントの簡単な解釈を見出した。
我々は,信念伝達における統計的相互作用と,それに対応する学習ネットワークのパラメータ間のグラフトランスレータの同定に成功した。
論文 参考訳(メタデータ) (2022-02-22T15:58:16Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - Input-to-State Representation in linear reservoirs dynamics [15.491286626948881]
貯留層コンピューティングは、リカレントニューラルネットワークを設計するための一般的なアプローチである。
これらのネットワークの動作原理は、完全には理解されていない。
このようなネットワークの力学の新たな解析法を提案する。
論文 参考訳(メタデータ) (2020-03-24T00:14:25Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。