論文の概要: Structure and Performance of Fully Connected Neural Networks: Emerging
Complex Network Properties
- arxiv url: http://arxiv.org/abs/2107.14062v1
- Date: Thu, 29 Jul 2021 14:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 13:27:22.653185
- Title: Structure and Performance of Fully Connected Neural Networks: Emerging
Complex Network Properties
- Title(参考訳): 完全接続型ニューラルネットワークの構造と性能:創発的複雑ネットワーク特性
- Authors: Leonardo F. S. Scabini and Odemir M. Bruno
- Abstract要約: 完全連結ニューラルネットワークの構造と性能を解析するために,複素ネットワーク(CN)技術を提案する。
4万のモデルとそれぞれのCNプロパティでデータセットを構築します。
本研究は,完全連結ニューラルネットワークの性能において,CN特性が重要な役割を担っていることを示唆する。
- 参考スコア(独自算出の注目度): 0.8484871864277639
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding the behavior of Artificial Neural Networks is one of the main
topics in the field recently, as black-box approaches have become usual since
the widespread of deep learning. Such high-dimensional models may manifest
instabilities and weird properties that resemble complex systems. Therefore, we
propose Complex Network (CN) techniques to analyze the structure and
performance of fully connected neural networks. For that, we build a dataset
with 4 thousand models and their respective CN properties. They are employed in
a supervised classification setup considering four vision benchmarks. Each
neural network is approached as a weighted and undirected graph of neurons and
synapses, and centrality measures are computed after training. Results show
that these measures are highly related to the network classification
performance. We also propose the concept of Bag-Of-Neurons (BoN), a CN-based
approach for finding topological signatures linking similar neurons. Results
suggest that six neuronal types emerge in such networks, independently of the
target domain, and are distributed differently according to classification
accuracy. We also tackle specific CN properties related to performance, such as
higher subgraph centrality on lower-performing models. Our findings suggest
that CN properties play a critical role in the performance of fully connected
neural networks, with topological patterns emerging independently on a wide
range of models.
- Abstract(参考訳): ニューラルネットワークの振る舞いを理解することは、近年、ディープラーニングの普及以来、ブラックボックスアプローチが常態化しているため、この分野における主要なトピックの1つである。
このような高次元モデルは、複雑なシステムに似た不安定性と奇妙な性質を示す可能性がある。
そこで本研究では,完全連結ニューラルネットワークの構造と性能を解析するための複雑ネットワーク(CN)手法を提案する。
そのため、私たちは4万のモデルとそれぞれのCNプロパティでデータセットを構築します。
4つのビジョンベンチマークを考慮した教師付き分類設定で採用されている。
各ニューラルネットワークは、ニューロンとシナプスの重み付きおよび非方向のグラフとしてアプローチされ、トレーニング後に集中度測度が計算される。
その結果,これらの尺度はネットワーク分類性能と高い相関性を示した。
また、同様のニューロンを結合するトポロジカルシグネチャを見つけるためのcnベースのアプローチであるbag-of-neurons(bon)の概念を提案する。
その結果,対象領域とは独立して6種類の神経型が出現し,分類精度に応じて異なる分布が認められた。
また,低性能モデルにおける部分グラフ集中度の向上など,パフォーマンスに関連する特定のCN特性についても検討する。
本研究は,CN特性が完全に連結されたニューラルネットワークの性能において重要な役割を担っていることを示唆する。
関連論文リスト
- Deep Neural Networks via Complex Network Theory: a Perspective [3.1023851130450684]
ディープニューラルネットワーク(DNN)は、リンクと頂点が反復的にデータを処理し、タスクを亜最適に解くグラフとして表現することができる。複雑なネットワーク理論(CNT)は、統計物理学とグラフ理論を融合させ、その重みとニューロン構造を分析してニューラルネットワークを解釈する方法を提供する。
本研究では,DNNのトレーニング分布から抽出した測定値を用いて既存のCNTメトリクスを拡張し,純粋なトポロジカル解析からディープラーニングの解釈可能性へ移行する。
論文 参考訳(メタデータ) (2024-04-17T08:42:42Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Deep Neural Networks as Complex Networks [1.704936863091649]
我々は、重み付きグラフとしてディープニューラルネットワーク(DNN)を表現するために複雑ネットワーク理論を用いる。
我々は、DNNを動的システムとして研究するためのメトリクスを導入し、その粒度は、重みから神経細胞を含む層まで様々である。
我々の測定値が低性能ネットワークと高パフォーマンスネットワークを区別していることが示される。
論文 参考訳(メタデータ) (2022-09-12T16:26:04Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Characterizing Learning Dynamics of Deep Neural Networks via Complex
Networks [1.0869257688521987]
複素ネットワーク理論(CNT)は、ディープニューラルネットワーク(DNN)を重み付きグラフとして表現し、それらを動的システムとして研究する。
ノード/ニューロンとレイヤ、すなわちNodes StrengthとLayers Fluctuationのメトリクスを紹介します。
本フレームワークは,学習力学のトレンドを抽出し,高精度ネットワークから低次ネットワークを分離する。
論文 参考訳(メタデータ) (2021-10-06T10:03:32Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - AM-GCN: Adaptive Multi-channel Graph Convolutional Networks [85.0332394224503]
グラフ畳み込みネットワーク(GCN)は,豊富な情報を持つ複雑なグラフにおいて,ノードの特徴と位相構造を最適に統合できるかどうかを検討する。
半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
実験の結果,AM-GCNはノードの特徴とトポロジ的構造の両方から最も相関性の高い情報を抽出することがわかった。
論文 参考訳(メタデータ) (2020-07-05T08:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。