論文の概要: Random Graph-Based Neuromorphic Learning with a Layer-Weaken Structure
- arxiv url: http://arxiv.org/abs/2111.08888v1
- Date: Wed, 17 Nov 2021 03:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 16:03:46.161488
- Title: Random Graph-Based Neuromorphic Learning with a Layer-Weaken Structure
- Title(参考訳): 階層構造をもつランダムグラフに基づくニューロモルフィック学習
- Authors: Ruiqi Mao and Rongxin Cui
- Abstract要約: 我々は,ランダムグラフ理論を実践的な意味でNNモデルに変換し,各ニューロンの入出力関係を明らかにする。
この低演算コストアプローチでは、ニューロンはいくつかのグループに割り当てられ、接続関係はそれらに属するランダムグラフの一様表現とみなすことができる。
本稿では,複数のRGNN間の情報インタラクションを含む共同分類機構を開発し,教師付き学習における3つのベンチマークタスクの大幅な性能向上を実現する。
- 参考スコア(独自算出の注目度): 4.477401614534202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unified understanding of neuro networks (NNs) gets the users into great
trouble because they have been puzzled by what kind of rules should be obeyed
to optimize the internal structure of NNs. Considering the potential capability
of random graphs to alter how computation is performed, we demonstrate that
they can serve as architecture generators to optimize the internal structure of
NNs. To transform the random graph theory into an NN model with practical
meaning and based on clarifying the input-output relationship of each neuron,
we complete data feature mapping by calculating Fourier Random Features (FRFs).
Under the usage of this low-operation cost approach, neurons are assigned to
several groups of which connection relationships can be regarded as uniform
representations of random graphs they belong to, and random arrangement fuses
those neurons to establish the pattern matrix, markedly reducing manual
participation and computational cost without the fixed and deep architecture.
Leveraging this single neuromorphic learning model termed random graph-based
neuro network (RGNN) we develop a joint classification mechanism involving
information interaction between multiple RGNNs and realize significant
performance improvements in supervised learning for three benchmark tasks,
whereby they effectively avoid the adverse impact of the interpretability of
NNs on the structure design and engineering practice.
- Abstract(参考訳): ニューラルネットワーク(NN)の統一的理解は、NNの内部構造を最適化するためにどのようなルールに従うべきかという問題に悩まされ、ユーザを悩ませます。
計算方法を変更するランダムグラフの可能性を考えると、NNの内部構造を最適化するアーキテクチャジェネレータとして機能できることが示される。
乱数グラフ理論を実践的な意味でNNモデルに変換し,各ニューロンの入出力関係を明らかにするために,フーリエランダム特徴(FRF)を計算してデータ特徴マッピングを完成させる。
この低演算コストアプローチでは、ニューロンはいくつかのグループに割り当てられ、接続関係はそれらが属するランダムグラフの一様表現とみなすことができ、ランダムな配列はそれらのニューロンを融合させてパターン行列を確立し、固定されたアーキテクチャや深いアーキテクチャなしに手動の参加と計算コストを著しく削減する。
この単一ニューロモルフィック学習モデルであるランダムグラフベースニューラルネットワーク(RGNN)を応用し、複数のRGNN間の情報相互作用を含む共同分類機構を開発し、3つのベンチマークタスクにおける教師あり学習の大幅な性能向上を実現し、NNの解釈可能性が構造設計や工学的実践に与える影響を効果的に回避する。
関連論文リスト
- Exploring Structural Nonlinearity in Binary Polariton-Based Neuromorphic Architectures [0.0]
ネットワークのレイアウトから導かれる構造的非線形性は,複雑な計算作業を円滑に行う上で重要な役割を担っていることを示す。
この個々のニューロン特性からネットワークアーキテクチャへのシフトは、ニューロモルフィックコンピューティングの効率性と適用性に大きな進歩をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-11-09T09:29:46Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Structured Neural Networks for Density Estimation and Causal Inference [15.63518195860946]
ニューラルネットワークに構造を注入することで、入力のサブセットに関する不変性を満たす学習機能を実現することができる。
本稿では,ニューラルネットワークのマスキング経路を通じて構造を注入する構造ニューラルネットワーク(StrNN)を提案する。
論文 参考訳(メタデータ) (2023-11-03T20:15:05Z) - Equivariant Matrix Function Neural Networks [1.8717045355288808]
解析行列同変関数を通じて非局所的相互作用をパラメータ化する新しいアーキテクチャであるマトリックス関数ニューラルネットワーク(MFNs)を導入する。
MFNは量子系の複雑な非局所的な相互作用を捉えることができ、新しい最先端の力場への道を歩むことができる。
論文 参考訳(メタデータ) (2023-10-16T14:17:00Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - A Graph Neural Network Framework for Causal Inference in Brain Networks [0.3392372796177108]
神経科学における中心的な問題は、脳内の自律的な動的相互作用が、比較的静的なバックボーンにどのように現れるかである。
構造解剖学的レイアウトに基づく機能的相互作用を記述するグラフニューラルネットワーク(GNN)フレームワークを提案する。
我々は,GNNがデータの長期的依存関係をキャプチャし,大規模ネットワークの解析までスケールアップ可能であることを示す。
論文 参考訳(メタデータ) (2020-10-14T15:01:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。